在開源大模型賽道,歐洲之光 Mistral AI 再次展現了其驚人的進化速度。

當地時間3月16日,Mistral AI 正式發佈了 Mistral Small4。這是該實驗室首款真正意義上的“全能型”大模型,首次在單一模型中完美兼顧了旗艦級推理、多模態理解以及強悍的編程能力。對於開發者而言,這意味着不再需要在各種垂直模型之間做“選擇題”,因爲新一代 Small4實現了“我全都要”。

image.png

Mistral Small4 採用了先進的 MoE(混合專家)架構:

  • 核心參數: 總參數量爲119B,激活參數僅爲6B,在保證性能的同時極大優化了運行效率。

  • 超長視野: 擁有 256k 的超長上下文窗口,能夠輕鬆處理整本技術文檔或大規模代碼庫。

  • 靈活模式: 支持快速響應與深度推理兩種模式,並以 Apache2.0協議 正式開源,誠意十足。

在性能表現上,Mistral Small4 較前代產品實現了質的飛躍。官方數據顯示,在延遲優化模式下,其端到端完成時間縮短了40%;而在吞吐優化模式下,每秒處理的請求數量是 Small3的3倍。在與外部大模型的橫向評測中,其在三大核心基準測試中的表現均不遜色於 OpenAI 的 GPT-OSS120B。

部署門檻與硬件建議:

爲了發揮該模型的最大威力,Mistral AI 給出了明確的硬件指引。最低配置要求爲4× HGX H100或1× DGX B200;而爲了獲得極致體驗,官方推薦使用4× HGX H200或2× DGX B200的組合。

隨着 Mistral Small4 的發佈,Mistral AI 不僅鞏固了其在開源界的領先地位,也爲企業級應用提供了一個低延遲、高智能的全新標杆。當歐洲技術力量遇上極致的架構優化,這場 AI 全球競賽正變得愈發精彩。