12月1日、中国の人工知能スタートアップであるディープクエリ(DeepSeek AI)は、DeepSeek-V3.2シリーズモデルを発表しました。このモデルには、DeepSeek-V3.2と、計算能力を強化したバージョンであるDeepSeek-V3.2-Specialeが含まれます。新しいモデルは、画期的なスパースアテンション機構(DSA)と強化されたエージェント機能を備え、グローバルなトップAIモデルであるOpenAIのGPT-5やGoogleのGemini3.0Proに挑戦することを目的としています。

DeepSeek

DeepSeek-V3.2シリーズの中心となるのは、独自のDeepSeek Sparse Attention(DSA)アーキテクチャです。この機構は、細粒度のスパースアテンションを初めて実現し、長文のシナリオにおいて計算複雑性とメモリ使用量を低下させつつ、密なアテンションモデルと同等の性能を維持します。この技術革新により、効率が向上しています:

  • 長文タスクにおける推論速度が2〜3倍に向上。
  • APIコストが削減され、公式には価格が50%以上低下。

DeepSeek-V3.2は「エージェント優先」のモデルとして位置付けられ、深層の推論能力とツールの使用プロセスを統合的に扱うことを重視しています。このモデルは大規模なエージェントタスク合成パイプラインで訓練されており、現実世界の応用シーンでの汎化能力を高めています。新モデルには「思考モード」が導入され、複雑なタスクを実行する前に連鎖的な論理的推論を行うことが可能となり、問題解決の正確性が向上します。いくつかのエージェント評価では、V3.2はオープンソースモデルの中で最高レベルに達しています。今回のリリースには2つの主要バージョンが含まれています:

  1. DeepSeek-V3.2:このバージョンは、ディープクエリのウェブサイト、アプリ、およびAPIサービスに公開されています。効率と性能を両立させるモデルであり、日常的な推論アシスタントや開発タスクに適しています。
  2. DeepSeek-V3.2-Speciale:これは極限的な推論能力に焦点を当てた計算能力を強化したバージョンであり、現在は一時的なAPIサービスを通じて公開されています。公式によると、Specialeバージョンは一部の高難易度の推論タスクにおいてGPT-5を上回り、2025年の国際数学オリンピック(IMO)および国際情報学オリンピック(IOI)競技で金メダルレベルの成績を収めました。