2月11日,多名用戶發現 DeepSeek 網頁端與移動應用同步迎來版本更新。本次升級最引人矚目的突破在於其上下文長度(Context Window)提升至1M(100萬)Token,標誌着其在大規模文檔處理領域邁入了全球頂尖梯隊。

從128K 到1M:處理能力的跨越式增長
相較於去年8月發佈的
實測表現: 經用戶測試,DeepSeek 已能一次性“吞下”整本長篇小說(如超過24萬 Token 的《簡愛》),並精準識別和分析文檔內容。
應用場景: 這意味着程序員可以上傳整個項目代碼庫,學者可以一次性整理百萬字的論文資料,辦公族處理超長會議紀要或法律合同也將更加順暢。
旗艦模型 DeepSeek V4仍在“蓄勢”
雖然本次更新顯著提升了長文本能力,但業內消息顯示,這可能只是 V3系列的一次小幅迭代升級。 真正的重頭戲——DeepSeek 下一代旗艦模型(預計爲 V4)正處於研發後期。
據知情人士透露,由於該模型規模跨越至“萬億參數級”,訓練複雜度的提升導致發佈進程略有放緩。
此次升級引發了科技圈的廣泛關注。網友紛紛表示,百萬級上下文對編程和大數據分析是“重大的突破”。與此同時,市場上如
