法國獨角獸 Mistral AI 於12月2日推出 Mistral3系列模型,包括3B、8B、14B 三個小型密集模型及迄今最強的 Mistral Large3,覆蓋從邊緣設備到企業級推理的全場景需求。新模型沿用 Apache2.0開源協議,權重已同步上傳至 Hugging Face 與 GitHub,允許商業免費使用。
Mistral3系列在保持前代低延遲優勢的同時,將上下文長度擴展至128K,並在 MMLU、HumanEval、MT-Bench 等主流基準中與 Llama3.1同規格模型打平或小幅領先。公司表示,通過“滑動窗口注意力 + 分組查詢注意力”混合設計,14B 版本在單張 A100即可完成128K 全上下文推理,批量場景下吞吐量提升42%,爲學術研究、商業分析、教育內容生成等應用提供更高性價比。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
Mistral AI 聯合創始人兼首席科學家 Guillaume Lample 指出:“我們的使命是讓高性能 AI 擺脫供應商鎖定。開發者無需鉅額預算,也能獲得與閉源方案媲美的效果。”目前,Mistral Large3已在公司官方平臺 Le Platforme 上線 API,定價爲每百萬 token 輸入0.8美元、輸出2.4美元,約爲 GPT-4o 的一半,並支持微調與私有部署。行業分析認爲,藉助歐洲 GDPR 合規優勢及開放權重策略,Mistral3有望進一步蠶食中小企業與公共部門市場,推動 AI 基礎設施“多極化”競爭。
