『白鯨ラボ』の独自情報によると、注目を集めるDeepSeek V4と姚順雨氏の新混元モデルは2026年4月に正式リリースされる予定である。DeepSeek V4は梁文峰が主導して開発したマルチモーダル大規模モデルであり、長期的な磨き上げと向上を通じて、コード処理能力や長期記憶機能において大きな進歩が期待されている。このモデルのリリースは、DeepSeekチームが近年研究を進めている方向性と一致しており、特に視覚コンテンツ処理や人工知能検索能力の分野で強みを持つ。

梁文峰の研究は「条件付き記憶」メカニズムの探求に集中しており、彼は2026年1月に発表した論文『Conditional Memory via Scalable Lookup』でその理論を提示した。また2025年12月には『mHC: Manifold-Constrained Hyper-Connections』という論文も発表し、さらに下位構造を最適化した。これらの研究は、Transformerモデルにおける記憶とトレーニングの安定性に関する欠点を解決することを目指している。DeepSeek V4は優れたマルチモーダル処理能力を持ち、国内チップに深く適合するように設計されており、最初に完全に国内演算力に依存する主要モデルとなることを目指している。

一方で、姚順雨氏の新しい混元モデルも4月にリリースされる予定である。姚順雨氏は2025年12月から騰訊(テンセント)の最高経営委員会の首席AI科学者として就任し、同時にAI Infra部門と大規模言語モデル部門を担当している。彼は2026年2月に発表した論文CL-benchにより、「文脈学習」を対象とした新たな評価基準を提案し、長文脈とエージェントの利用可能性の重要性を強調した。関連情報によると、姚順雨氏の新モデルは約30億のパラメータを持つ予定であり、彼のチームは当初からパラメータ数の競争ではなく、モデルの実際の応用を重視している。

これらのリリースは市場から高い注目を集め、中国が人工知能分野で急速な発展を遂げていることを示唆している。DeepSeek V4の長期記憶機能や、騰訊の混元モデルが現実的なタスク評価において進んでいる点など、すべてが将来の大規模モデルがどのようにして生産環境にうまく適応できるかという問いに答えようとしている。