在大模型競賽從“拼參數”轉向“拼效率”的關鍵節點,MiniMax於10月27日發佈新一代開源推理模型M2,以精準的工程取捨,錨定智能Agent這一下一代AI應用的核心戰場。
M2採用混合專家架構(Mixture-of-Experts, MoE),總參數量達2300億,但每次推理僅激活100億參數,實現高達每秒100個token的輸出速度——這一性能指標使其在實時交互場景中具備顯著優勢。尤爲關鍵的是,M2專爲智能Agent設計,強化了在行爲決策、多輪任務規劃與環境交互中的推理連貫性與響應效率,爲構建真正自主的AI智能體提供底層引擎。

值得注意的是,相比前代M1模型,M2在上下文窗口上做出戰略調整:從M1支持的100萬token大幅縮減至20.48萬token。這一變化並非技術倒退,而是MiniMax在長文本處理、推理速度與部署成本之間做出的務實權衡。M1雖以“百萬上下文”創下紀錄,但高資源消耗限制了實際落地;而M2則聚焦高頻、高響應的Agent任務,在保證足夠上下文長度的同時,大幅提升吞吐效率與經濟性。
作爲開源模型,M2進一步降低了開發者構建定製化智能體的門檻。無論是打造具備複雜任務鏈的虛擬助手、自動化工作流機器人,還是嵌入企業系統的決策Agent,開發者均可基於M2快速迭代,靈活調優。
MiniMax明確將M2定位爲“Agent時代的推理基座”。在AI正從“問答工具”邁向“行動代理”的浪潮中,M2的推出不僅是一次模型升級,更是對下一代AI應用範式的押注——當智能體需要快速思考、持續行動、高效交互,速度與成本,或許比上下文長度更爲關鍵。
