ディープソース(DeepSeek)は今日、新シリーズモデルDeepSeek-V4のプレビュー版が正式リリースされ、同時にオープンソース化されたことを発表しました。このシリーズモデルは構造の革新により、1M(百万文字)という超長文脈を標準化する能力を実現し、エージェント協力、世界知識および論理推論性能において国内およびオープンソース分野で先進的な水準に達しています。

DeepSeek

二バージョン構成:Proは最高性能、Flashは効率重視

DeepSeek-V4は、用途に応じて2つの仕様に分かれています:

  • DeepSeek-V4-Pro(1.6Tパラメータ、アクティブ49B): 性能はトップクラスの閉鎖型モデルに匹敵します。Agentic Coding評価ではオープンソースモデルの最良レベルに達しており、出力品質はOpus4.6に近づいています。数学、STEM、競技コードの評価では、すべての公開されているオープンソースモデルを上回り、世界レベルの推論性能を示しています。

  • DeepSeek-V4-Flash(284Bパラメータ、アクティブ13B): 极めてコストパフォーマンスに優れています。プロバージョンより世界知識の蓄積はやや劣るものの、単純なタスクの推論能力とエージェントのパフォーマンスはプロバージョンと同等であり、より高速かつ経済的なAPIサービスを提供できます。

構造の革新:DSAメカニズムで長文脈を広く可能に

DeepSeek-V4は、画期的なDSAスパースアテンションメカニズムを採用しています。トークンの次元で圧縮を行うことで、モデルは超長文脈に対する計算量とVRAMの必要性を大幅に低減しました。これにより、1Mの文脈がディープソースのすべての公式サービスの標準装備となり、長文処理における高コストという業界の課題を解決しました。

エージェントエコシステムへの深い適合

現在主流のエージェント製品(Claude Code、CodeBuddyなど)に対して、DeepSeek-V4は特別な最適化が施されています。モデルは思考なしモード思考モードをサポートし、APIではreasoning_effortパラメータが開放されており、ユーザーはタスクの複雑さに応じて思考強度(high/max)を調整できます。これはコード生成やドキュメント処理などの複雑なシナリオでのパフォーマンスを著しく向上させます。

アクセスとオープンソース計画

現在、ユーザーは公式サイトまたは公式アプリで最新モデルを体験でき、APIも同時に更新されました。注目すべき点として、従来のdeepseek-chatおよびdeepseek-reasonerというモデル名は3か月後(2026年7月24日)から使用できなくなります。

  • オープンソースリンク: すでにHugging Face魔搭コミュニティに掲載されています。

  • 技術レポート: 同時にHugging Faceのリポジトリに公開されています。

今回のDeepSeek-V4のリリースは、オープンソースモデルがトップクラスの閉鎖型モデルと並ぶことが可能なことを証明しただけでなく、技術的構造の突破を通じてAGIの普及に堅固な基盤を提供しました。