在開源大模型賽道,Mistral AI再次向行業展示了什麼叫“效率至上”。今日,該公司宣佈在 Apache2.0許可下正式開源其 Small 系列的最新力作——Mistral Small4,並同步宣佈加入英偉達新成立的 Nemotron 聯盟,成爲創始成員之一。
這並非一次簡單的常規升級。Mistral Small4 被官方定義爲首款“三位一體”的多功能模型。它完美整合了 Mistral 家族此前引以爲傲的三大旗艦能力:
Magistral: 卓越的邏輯推理能力。
Pixtral: 強大的原生多模態處理能力(支持圖像輸入)。
Devstral: 專業的智能體編碼能力。
這意味着開發者無需再在“快指令模型”、“重推理引擎”或“多模態助手”之間做選擇題,一個模型就能搞定所有場景。
在技術規格上,Mistral Small4 採用了精密的 128專家混合(MoE)架構。儘管總參數量達到了1190億,但通過優化,每個 Token 僅激活4個專家(約60億個活動參數),在保證性能的同時極大降低了算力開銷。此外,256k 的超長上下文窗口,讓它在處理長文檔分析和複雜對話時遊刃有餘。
值得關注的是,該模型引入了“可配置推理強度”功能。用戶可以在追求低延遲的快速響應和深度思考的推理輸出之間自由切換。實測數據統計顯示:
在延遲優化模式下,端到端完成時間減少了 40%。
在吞吐量優化模式下,每秒請求數(RPS)相比前代產品提升了 3倍。
從代碼補全到視覺分析,Mistral Small4 的開源無疑爲全球開發者提供了一個更靈活、更高效的“全能底座”。當頂尖推理能力與原生多模態合二爲一,開源社區的創新天花板或將被再次拉高。