報道によると、
コア的な突破:モデルが自ら「研究者」になる
自己反復ループ: チームはM2の初期バージョンを研究型エージェントとして導入し、モデル自身が次のモデルの反復改善に参加させました。モデルは複雑なエージェントハーネスを独自に構築し、強化学習を駆動してメモリを最適化し、ワークフローの30〜50%を自動化することができました。
プログラミングとオフィス業務の頂点: プログラミングテスト SWE-Pro において、M2.7は56.22%の正解率でGPT-5.3-Codexに並びました。専門的なオフィス領域では、GDPval-AAスコアはオープンソースモデルの中でトップです。
スキルの極限的な遵守: 2000トークンを超える複雑なスキルシナリオでも、このモデルは依然として97%
昇騰によるサポート:ソフトウェアとハードウェアの協調で計算能力のボトルネックを解消
通信の高速化: モデルのイノベーションである FlashComm シーケンス分割に対して、ReduceScatter および AllGather の通信最適化を導入し、データ伝送効率を大幅に向上させました。
演算子の統合: Transformer Attention の全チェーン統合演算子と MoE 大統合演算子を深く最適化し、中間テンソルの読み書きコストを完全に削除しました。
スループット性能の向上: 複数 DP 并行状況下で自己調整型負荷均等を実現し、プレフィル(prefill)がデコード(decode)に与える影響を顕著に低下させました。
実際の応用:ソフトウェアエンジニアリングからインタラクティブエンタメまで
ソフトウェアエンジニアリング: 日誌分析、Bugの特定、コードリファクタリング、Android開発などの深い分野をカバーしています。
インタラクティブエンタメ: 交互システムOpenRoomを通じて、AIのインタラクションをWeb GUI空間に組み込み、キャラクターの保持と会話の一貫性を強化しています。
専門的なオフィス: 強い環境相互作用能力によって、非常に複雑な生産性タスクを提供します。
結論:計算力の基盤が進化速度を決定する
