2月11日、多くのユーザーがDeepSeekのウェブ版とモバイルアプリが同時にバージョンアップしたことに気づきました。今回のアップデートで最も注目されている進歩は、コンテキストウィンドウ(文脈長)が1M(100万)トークンに拡大されたことです。これは、大規模なドキュメント処理分野において、世界トップクラスの水準に到達したことを意味しています。

DeepSeek

128Kから1Mへ:処理能力の飛躍的な向上

昨年の8月にリリースされたDeepSeek V3.1(文脈長が128K)に比べて、今回のアップデートでは処理能力が約8倍に向上しました。

  • 実測結果: ユーザーによるテストによると、DeepSeekは長編小説(例えば24万トークンを超える『エマ』など)を一度に「飲み込む」ことができ、ドキュメントの内容を正確に認識・分析できます。

  • 応用場面: このことは、プログラマーがプロジェクト全体のコードライブラリをアップロードでき、研究者は百万文字を超える論文資料を一度に整理できるようになり、オフィスワーカーが超長の会議録や法律契約書をよりスムーズに処理できるようになることを意味します。

旗艦モデル DeepSeek V4も「準備中」

今回のアップデートで長文処理能力が大幅に向上しましたが、業界関係者の情報によると、これはV3シリーズの一時的な小幅なアップデートである可能性があります。本当の注目すべきポイントであるDeepSeekの次世代旗艦モデル(予定はV4)は、開発の後期段階にあります。

関係者によると、このモデルは「トレーニングパラメータが数兆単位に達する」という規模に拡大し、トレーニングの複雑さが増したため、公開スケジュールが少し遅延しているとのことです。

今回のアップデートは、テクノロジーサイドで広く注目を集めました。ネットユーザーは「100万トークンの文脈はプログラミングやビッグデータ分析にとって大きな進歩だ」とコメントしています。一方で、QwenLongなどのモデルも長文推論分野で力を入れており、国内AIの「長文競争」はますます激化しています。