8月19日夕方、DeepSeek公式はオンラインモデルバージョンがV3.1にアップグレードされたことを発表しました。最も顕著な改善点は、文脈長が128Kに拡張され、約10万~13万文字の超長テキストを処理できるようになったことです。これは長文ドキュメントの分析やコードベースの理解、複数ラウンドの会話シーンに適しています。
ユーザーは現在、公式サイト、アプリ、またはWeChatミニアプリで新しいバージョンを体験できます。APIインターフェースの呼び出し方法は変更されておらず、開発者は追加の調整を行うことなくスムーズに切り替えることができます。
今回のアップグレードは大規模なバージョンアップではなく、V3モデルの最適化です。テスト結果によると、V3.1はマルチステップ推論タスクにおいて前世代よりも43%向上しており、特に数学計算、コード生成、科学分析などの複雑なタスクでの正確性が高くなっています。また、モデルが「幻覚(誤った情報を生成)」する状況は38%減少し、出力の信頼性が大幅に向上しています。さらに、V3.1では多言語対応が最適化され、アジア言語および小規模言語の処理能力が特に向上しています。
V3.1には重要な改善が含まれていますが、ユーザーがより期待している次の大型モデルであるDeepSeek-R2の公開日は依然として明確ではありません。以前の市場の噂では、R2は8月15日から30日に公開される予定でしたが、DeepSeekに近い情報筋によると、この情報は不実であり、公式には具体的な公開計画はありません。一部の外国メディアは、R2の遅延が訓練中に遭遇したハードウェアの問題(例えばチップ供給の制限)に関係している可能性があると報じています。
DeepSeekの更新ペースを見ると、R2が公開される前にV4モデルが先にリリースされる可能性があります。ただし、公式は一貫して静かに過ごしており、「完了すれば公開する」と強調しており、市場の憶測には一切コメントしていません。
体験URL: https://chat.deepseek.com/