大規模モデル競争が「パラメータの多さ」から「効率」への転換点を迎える中、MiniMaxは10月27日に新世代オープンソース推論モデルM2を発表しました。正確なエンジニアリングの選択により、スマートエージェントという次のAI応用の核心戦場に焦点を当てています。
M2は混合エキスパートアーキテクチャ(Mixture-of-Experts, MoE)を採用しており、総パラメータ数は2300億ですが、一度の推論では100億のパラメータのみがアクティブ化され、1秒間に最大100トークンの出力速度を実現しています。この性能指標により、リアルタイムインタラクションのシナリオにおいて大きな優位性を持っています。特に重要なのは、M2がスマートエージェントのために設計されていることで、行動決定、複数ラウンドのタスク計画、環境との相互作用における推論の一貫性と応答効率を強化し、真正の自律的なAIエージェントの構築に下部エンジンを提供しています。

注目すべきは、前バージョンのM1モデルと比較して、M2がコンテキストウィンドウにおいて戦略的な調整を施した点です。M1がサポートしていた100万トークンから大幅に縮小されて20.48万トークンになりました。この変化は技術的な後退ではなく、長文処理、推論速度、および導入コストの間で現実的なトレードオフを取ったものです。M1は「百万のコンテキスト」で記録を樹立しましたが、高エネルギー消費が実際の導入を制限していました。一方、M2は頻繁かつ高速なエージェントタスクに焦点を当てており、十分なコンテキスト長さを維持しつつ、スループット効率と経済性を大幅に向上させています。
オープンソースモデルとして、M2は開発者がカスタムスマートエージェントを構築するハードルをさらに下げました。複雑なタスクチェーンを持つ仮想アシスタントや、自動ワークフローのロボット、企業システムに組み込まれた意思決定エージェントの構築など、開発者はM2を基盤にして迅速に反復し、柔軟に最適化できます。
