2月11日,多名用戶發現 DeepSeek 網頁端與移動應用同步迎來版本更新。本次升級最引人矚目的突破在於其上下文長度(Context Window)提升至1M(100萬)Token,標誌着其在大規模文檔處理領域邁入了全球頂尖梯隊。

DeepSeek

從128K 到1M:處理能力的跨越式增長

相較於去年8月發佈的DeepSeek V3.1(其上下文長度爲128K),本次更新將處理能力提升了近8倍。

  • 實測表現: 經用戶測試,DeepSeek 已能一次性“吞下”整本長篇小說(如超過24萬 Token 的《簡愛》),並精準識別和分析文檔內容。

  • 應用場景: 這意味着程序員可以上傳整個項目代碼庫,學者可以一次性整理百萬字的論文資料,辦公族處理超長會議紀要或法律合同也將更加順暢。

旗艦模型 DeepSeek V4仍在“蓄勢”

雖然本次更新顯著提升了長文本能力,但業內消息顯示,這可能只是 V3系列的一次小幅迭代升級。 真正的重頭戲——DeepSeek 下一代旗艦模型(預計爲 V4)正處於研發後期。

據知情人士透露,由於該模型規模跨越至“萬億參數級”,訓練複雜度的提升導致發佈進程略有放緩。

此次升級引發了科技圈的廣泛關注。網友紛紛表示,百萬級上下文對編程和大數據分析是“重大的突破”。與此同時,市場上如QwenLong等模型也在長文本推理領域發力,國產 AI 的“長文本競賽”正日趨白熱化。