フィナンシャル・タイムズの2月28日付報道によると、ディープシーク(DeepSeek)は来週、新たなマルチモーダル大規模言語モデル「V4」を発表する予定である。このモデルは画像、動画、テキスト生成をネイティブにサポートしており、今年1月にリリースされたR1推論モデルに続く初めての主要アップデートとなる。国内で高性能で低コストなオープンソースマルチモーダルモデルの市場空白を埋めることが目的である。

DeepSeek

ロードマップによると、DeepSeekはV4のリリース当初に簡潔な技術説明を提供し、1か月後に詳細なエンジニアリングレポートを公開する予定である。ベースラインエコシステムにおいて、V4モデルは華為(Huawei)カンブリアン(寒武紀)と深度的なハードウェア最適化を完了している。この取り組みは、国内の計算力需要を大幅に促進するだけでなく、AIモデルの推論フェーズが中国製チップの配列へ急速に移行していることを示している。

オープンソース界における有力な競合として、DeepSeek V4の登場はマルチモーダル技術の障壁がさらに低下することを示しており、自主的で制御可能な国内AI計算エコシステム構築において重要な指針となる。