近日,YuanLab.ai 團隊正式發佈了源 Yuan3.0Flash 多模態基礎大模型,這一模型的開源將爲 AI 領域帶來新的機遇。該模型不僅包括16bit 與4bit 的模型權重,還提供了詳細的技術報告和訓練方法,支持社區進行二次開發和行業定製,極大地促進了 AI 技術的普及。

Yuan3.0Flash 的參數規模達到40B,採用了創新的稀疏混合專家(MoE)架構,在推理過程中,僅激活約3.7B 的參數。這種設計不僅提高了推理的準確性,還大幅降低了算力消耗,體現了 “更少算力、更高智能” 的理念。此外,模型還引入了強化學習訓練方法(RAPO),通過反思抑制獎勵機制(RIRM),有效地引導模型減少無效反思,進一步提升了性能。
在模型的結構上,Yuan3.0Flash 由視覺編碼器、語言主幹網絡和多模態對齊模塊組成。語言主幹網絡採用了局部過濾增強的 Attention 結構(LFA)和混合專家結構(MoE),在保證注意力精度的同時,顯著減少了訓練和推理過程中的算力開銷。視覺編碼器能夠將視覺信號轉化爲 token,與語言 token 共同輸入,從而實現高效的跨模態特徵對齊。
在實際應用方面,Yuan3.0Flash 在企業場景中的表現已超越了 GPT-5.1,特別是在 RAG(ChatRAG)、多模態檢索(Docmatix)以及多模態表格理解(MMTab)等任務上,展現了顯著的能力優勢。多模態推理與語言推理的評測中,該模型的精度接近於更大規模的模型,如 Qwen3-VL235B-A22B(235B)和 DeepSeek-R1-0528(671B),但其 token 消耗僅爲後者的1/4到1/2,有效降低了企業在大模型應用上的成本。
未來,源 Yuan3.0將推出多個版本,包括 Flash、Pro 和 Ultra,參數規模涵蓋40B、200B 和1T 等選擇,進一步豐富了 AI 模型的應用可能性。
劃重點:
🌟 Yuan3.0Flash 是一款開源的40B 參數規模多模態基礎大模型,包含多種模型權重和詳細的技術報告。
💡 該模型採用創新的稀疏混合專家架構,推理過程顯著降低算力消耗,提升智能表現。
🚀 在企業應用中,Yuan3.0Flash 已超越 GPT-5.1,展現出優秀的多模態推理能力,降低了應用成本。
