AI 程式設計限流 DeepSeek-V4 體驗 墨梅部落格 | 2026 年第 19 週草梅週報
首頁文章列表草梅周報AI 程式設計限流 DeepSeek-V4 體驗 墨梅部落格 | 2026 年第 19 週草梅週報

AI 程式設計限流 DeepSeek-V4 體驗 墨梅部落格 | 2026 年第 19 週草梅週報

草梅友仁
2026-05-10 13:51:34 0 閱讀量 3108 字數 11 分鐘草梅周報

摘要

草梅週報本期主要更新內容:墨梅博客 v1.16.0 發布,新增創作者統計和遠程倉庫同步(支援 GitHub/Gitee 的 Hexo 風格 Markdown 文件)功能,同時提供 Demo 站和官網體驗。AI Coding Plan 普遍開始限流,包括 GitHub Copilot、Claude、OpenAI、GLM 等廠商均採取限制措施,原因是 AI 大模型服務為重資產模式,算力成本隨用戶量線性增長,邊際遞減效應弱;用戶用量增長導致成本高企,從而引發降智循環。作者認為靠堆算力提升性能不可持續,更看好 DeepSeek 的低算力需求模式。DeepSeek-V4 使用體驗:高強度編程消耗約 5.5 億 token,花費 45 元,得益於緩存機制性價比高;但與頂尖模型(如 Claude Opus 4.6)仍有差距。GitHub Release 方面:rss-impact-server v1.18.2 添加緩存測試並修復依賴;momei v1.15.0 及 v1.16.0 新增多項功能及 Bug 修復;picgo-plugin-optimization v1.1.1 重構依賴。最新加星倉庫包括軟著生成工具、LaughterCan、awesome-deepseek-agent、DeepSeek-V4 角色扮演指令、hermes-agent。其他博客推薦:阮一峰週刊 395/394 期、HelloGitHub 121 期、潮流週刊 266/265 期、二丫講梵學習週刊 260 期。總結感謝閱讀並列出訂閱方式。

本文在草梅友仁的部落格發佈和更新,並在多個平台同步發佈。如有更新,以部落格上的版本為準。您也可以透過文末的 原文連結 查看最新版本。

前言

歡迎來到草梅週報!這是一個由草梅友仁基於 AI 整理的週報,旨在為您提供最新的部落格更新、GitHub 動態、個人動態和其他週刊文章推薦等內容。


開源動態

本週墨梅部落格的開發依舊在穩步進行中。

您可以前往 Demo 站試用:https://demo.momei.app/

  • 您可以透過電子郵件 admin@example.com,密碼 momei123456 登入示範用管理員帳號。

或前往官網註冊:https://momei.app/

也可以前往文件站來了解專案整體規劃和未來開發路線圖:https://docs.momei.app/

當前墨梅部落格已經正式發佈了 1.16.0 版本,以下是新頁面和新功能的一些截圖。

新增創作者統計功能,現在可以在後台看到單一創作者的統計數據。

image-20260510205205111

新增遠端倉庫同步功能,現在可以同步部落格到指定的 GitHub/Gitee 倉庫(使用 Hexo 風格的 markdown 檔案)。

image-20260510190053005

更多功能和頁面可以前往官網體驗,也可前往之前的部落格查看截圖。

歡迎各位用戶體驗。並提出意見和建議。

接下來的話還會繼續按照路線圖和待辦進行開發功能,敬請期待。

當然,目前墨梅博客還有很多需要打磨的細節,功能上也還不完善,如有任何意見和建議,都可以在項目的 GitHub issues 中提出。

如果你也對墨梅博客感興趣,歡迎參與開發和測試。

AI Coding Plan 普遍開始限流

最近在使用 GitHub Copilot 的過程中開始頻繁遇到了 session limit 和 weekly limit,這意味著即便付費訂閱了 Copilot Pro 也免不了被限流。

image-20260510190432511

但唯一的問題是這個限制沒有考慮額外付費的用戶,之前超量的時候都是直接花錢買次數,比如說 3 月份就額外買了 10 美元的量,最後的用量甚至來到了 200%(額外多出快 100%的用量)。

image-20260510191240736

而現在,額外付費買的這部分用量也會被計入限流中,導致目前會出現一個離譜的情況,那就是套餐內的請求量也有可能用不完(要是之前的話,請求用量估計已經來到了 80%以上)。

image-20260510191401821

雖然說下個月起,GitHub Copilot 就要轉變為按照實際使用量計算了(參考:《GitHub Copilot 正在轉向基於使用量的計費》),不過在這最後一個過渡時期,能不能讓用戶的體驗稍微好一點呢?

image-20260510192345082

當然,Coding Plan 開始限流並不是 GitHub Copilot 一家的問題,無論是國外的 Claude、OpenAI、Gemini,還是國內的 GLM、MiniMax 等 AI 大模型廠商,都無一例外地開始對 Coding Plan 進行限流。

其中還不乏把用量限制得很低的廠商,甚至不惜擅自修改套餐內容,得罪用戶,也要進行限流。

比如說 GLM 就直接把老套餐廢了,強行切換到新套餐。(參考:《老套餐遷移與補償說明》

image-20260510192759859

而阿里雲這邊更是直接廢掉了 Coding Plan Lite,直接沒法續費和升級。(參考:《Coding Plan Lite 基礎套餐停止續費和升級通知》

image-20260510193333474

因此大家在對這些 AI 廠商生氣之前,也需要額外思考一個新的問題,那就是:為什麼這些 AI 廠商都不約而同地對 Coding Plan 進行了限流?

原因其實比大家想的要簡單,那就是提供 AI 大模型的訂閱服務,它實際上是一個重資產的行為。

那麼重的是哪一塊資產呢?實際上就是算力,或者說 GPU。而這一塊它的邊際遞減效應其實是不太明顯的,簡單來說就是來多少用戶就真的得提供多少算力。而傳統的互聯網行業他的邊際遞減效應非常明顯,為第 1 個用戶提供服務需要較多資源,而當用戶量大起來的時候,為第 1 萬個用戶提供服務,所需要增加的資源就並不多。

但在 Coding Plan 中,為第一個用戶,和為第 1 萬個用戶所需要提供的算力是基本差不多的,沒辦法減少太多成本。

更何況,那些用量特別大的用戶,是真的可以把套餐用到上限的,這就導致訂閱套餐的用戶越多,這樣的用戶越多,而對算力的要求就越高,因此成本會居高不下。

而這也就是越來越多的 AI 廠商開始壓縮套餐使用量的原因。

與此類似的還有另外一個問題。最近大家也已經聽說了一些關於之前很火的視頻生成大模型 seedance2.0 降智的問題。

雖然說現在還是可以依靠一些付費充值的手段來,獲得一些滿血版的使用,但和剛開始相比確實沒那麼驚艷了。

這實際上就是 AI 大模型面臨的最大的一個難題:一個新的大模型剛開始出現的時候,算力比較充裕,因此用戶體驗比較良好;而當新的用戶被吸引進來之後,算力開始緊張,用戶體驗開始下降,然後用戶開始流失;直到下一個大模型出現,重複上述循環。

可以說無論是文本大模型,還是圖片生成大模型,或者視頻生成大模型,都存在著上述循環。

大模型周期循環

也因此,那種靠堆算力來取得較高性能的 AI 大模型其實是不可持續的,原因是通過對算力獲得的增長是差不多線性的。而人們因此產生的新需求,他反而是指數級增長的,所以 AI 大模型的性能增加程度是無論如何都不太可能追得上新增加的需求的數量的。

所以雖然 DeepSeek 自己評價 DeepSeek-V4-Pro 的結果是 仍與 Opus 4.6 思考模式存在一定差距,但我仍然更看好 DeepSeek 的模式。

因為 DeepSeek 一直在嘗試做出性能更好,而算力需求更低的 AI 大模型,我認為這才是 AI 大模型未來。

(如果未來能出個物美價廉的 DeepSeek-V4-Pro 套餐就更好了)

DeepSeek-V4 的使用體驗

這段時間也是親自高強度的使用 DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 進行編程,累計消耗約 5.5 億 token,花費約 45 元,折合起來差不多每 1 元可使用 1200 萬 token。

image-20260510200016915

當然其中也包含了一下部分的 V4-Flash,不過因為用量太少就合併進去計算了。

而能夠這麼便宜的原因就是因為 DeepSeek 神秘的緩存機制,導致緩存命中率居高不下,在編程這個上下文容易高度重複的場景下,是非常優秀的節約成本的方案。

當然也必須要承認的一點就是,DeepSeek-V4-Pro 跟目前最頂尖的那些 AI 大模型,比如說 GPT5.5、Claude Opus 4.6 等還是有比較大的差距的,這一點也就是我在實際使用過後發現 DeepSeek-V4-Pro 的編碼成果當中存在不小的疏漏後發現的。所以想靠 DeepSeek-V4-Pro 就直接追平頂尖 AI 大模型還是不大可能的。

但我還是比較看好的 DeepSeek 的,畢竟就這個價格,還要啥自行車呢?

隔壁的 Anthropic 賣的 Claude API 得有多貴?Opus 4.7 輸入 5 美元(約 34 人民幣)每百萬 token,輸出更是來到了 25 美元(約 170 人民幣)每百萬 token。

套餐方面,也因為動不動就封號加上 KYC 驗證加強,導致用起來越來越麻煩,成本也迅速上升。

所以,雖然理論上說應該盡可能使用最強的 AI 模型來最大化工作效率,從而創造更多的收益來抵消開支上漲,但實際上沒有人能不考慮成本來做事。

正所謂貴有貴的玩法,窮也有窮的玩法,更重要的是結合自己的實際情況,採用性價比最高的方案。

GitHub Release

rss-impact-server

v1.18.2 - 2026-05-02 20:28:53

摘要:

v1.18.2 版本發布摘要

  • 測試: 為緩存服務添加單元測試。
  • Bug 修復: 更新依賴項並優化緩存管理實現。

momei

v1.16.0 - 2026-05-09 20:42:55

摘要:

1.16.0 (2026-05-09)

✨ 新功能

  • admin:

v1.15.0 - 2026-04-25 20:36:49

摘要: v1.15.0 版本更新內容摘要:

新功能:

  • 管理後台 AI 模組新增任務詳情載入功能
  • API 增強了型別安全與錯誤處理
  • 評論系統新增翻譯功能及跨語言提示
  • 友鏈模組增加元資訊介面的本地化支援,並新增友鏈管理功能及國際化支援
  • 程式碼治理方面:完成首輪存量程式碼註解治理並固化 JSDoc 模板;新增 ESLint/型別債治理文件及相關配置;新增註解漂移治理文件
  • 新增 Hexo 風格文章倉庫同步能力,以及 Hexo 倉庫同步功能
  • 國際化方面:增強審計功能;完善 admin-posts 模組翻譯;更新多語言支援和管理介面文字
  • Markdown 編輯器新增編輯器功能及程式碼複製支援
  • 分頁查詢增加安全解析功能
  • 文章列表查詢新增語言回退過濾器
  • SEO 方面增加頁面 SEO 相關功能,並為標籤頁面新增結構化資料和 SEO 優化
  • 其他:新增評論區 AI 翻譯功能;統一字串列表解析邏輯

Bug 修復:

  • 文章管理模組新增管理功能及國際化支援
  • 郵件模板新增執行時欄位支援
  • 外部 Feed 面板優化測試用例結構
  • 外部 Feed 處理無標題項的情況
  • 完成 ESLint/型別債第二輪收緊
  • 國際化方面:優化倉庫同步資訊本地化文字;新增使用者協議管理功能的國際化支援
  • 設定模組優化欄位解析邏輯,新增外部源編輯器功能

程式碼重構:

  • AI 模組統一去除末尾斜線的處理邏輯
  • ASR 模組使用 toWebSocketBuffer 函式傳送資料
  • 資料庫增加就緒檢查功能
  • 治理方面將 Hexo 倉庫同步重構為遠端倉庫同步
  • 國際化重構動態鍵處理邏輯
  • 設定 API 增強型別處理邏輯
  • 第三方設定優化外部源設定模型綁定
  • 其他:優化效果掛載條件

picgo-plugin-optimization

v1.1.1 - 2026-05-10 00:30:35

摘要: 版本 1.1.1 (2026-05-09):

  • 修復:tsdown 依賴項配置重構。
  • 重構:tsdown 的 neverBundle 依賴項修改,新增 picgo 和 axios。

最新 GitHub 加星倉庫

其他部落格或週刊推薦

阮一峰的網路日誌

HelloGitHub 月刊

潮流週刊

二丫講梵的學習週刊

總結

本週的更新和動態如上所示。感謝您的閱讀! 您可以透過以下方式訂閱草梅週報的更新:

往期回顧

版權聲明
本文作者:草梅友仁
本文連結:https://momei.app/zh-TW/posts/2026-19-caomei-weekly-ai-programming-throttling-deepseek-v4-experience
版權聲明:本部落格所有文章除特別聲明外,均採用 CC BY-NC-SA 4.0(姓名標示-非商業性使用-相同方式分享) 授權條款。轉載請註明出處!

文章分享

分享這篇文章

贊助支持