在大模型竞赛从“拼参数”转向“拼效率”的关键节点,MiniMax于10月27日发布新一代开源推理模型M2,以精准的工程取舍,锚定智能Agent这一下一代AI应用的核心战场。

M2采用混合专家架构(Mixture-of-Experts, MoE),总参数量达2300亿,但每次推理仅激活100亿参数,实现高达每秒100个token的输出速度——这一性能指标使其在实时交互场景中具备显著优势。尤为关键的是,M2专为智能Agent设计,强化了在行为决策、多轮任务规划与环境交互中的推理连贯性与响应效率,为构建真正自主的AI智能体提供底层引擎。

MiniMax、稀宇科技、AI、人工智能

值得注意的是,相比前代M1模型,M2在上下文窗口上做出战略调整:从M1支持的100万token大幅缩减至20.48万token。这一变化并非技术倒退,而是MiniMax在长文本处理、推理速度与部署成本之间做出的务实权衡。M1虽以“百万上下文”创下纪录,但高资源消耗限制了实际落地;而M2则聚焦高频、高响应的Agent任务,在保证足够上下文长度的同时,大幅提升吞吐效率与经济性。

作为开源模型,M2进一步降低了开发者构建定制化智能体的门槛。无论是打造具备复杂任务链的虚拟助手、自动化工作流机器人,还是嵌入企业系统的决策Agent,开发者均可基于M2快速迭代,灵活调优。

MiniMax明确将M2定位为“Agent时代的推理基座”。在AI正从“问答工具”迈向“行动代理”的浪潮中,M2的推出不仅是一次模型升级,更是对下一代AI应用范式的押注——当智能体需要快速思考、持续行动、高效交互,速度与成本,或许比上下文长度更为关键。