近日,美團正式發佈並開源了其最新的 AI 大模型 ——LongCat-Flash-Chat。這款模型以560B 的總參數量和18.6B 到31.3B 的激活參數範圍,展現了其在計算效率與性能之間的優越平衡。LongCat-Flash 採用了創新的混合專家模型(MoE)架構,利用 “零計算專家” 機制,使得每個 token 在處理時僅激活必要的參數,確保算力高效利用。
在模型架構方面,LongCat-Flash 還引入了跨層通道設計,極大提升了訓練和推理的並行性。這使得模型在僅僅30天的訓練時間內,就在 H800硬件上達到了單用戶每秒處理100個 token 的推理速度。值得注意的是,該模型的訓練過程中,採用了 PID 控制器來實時調整專家的偏置,保持激活參數的平均水平在27B,從而有效控制算力消耗。

不僅如此,LongCat-Flash 在智能體能力的提升上也做了諸多優化。通過構建自有的 Agentic 評測集和多智能體數據生成策略,該模型在各類智能體任務中表現優異,尤其是在複雜場景下,其在 VitaBench 基準測試中的得分更是位列第一。相較於參數規模更大的模型,LongCat-Flash 依然展現出卓越的智能體工具使用能力。

在通用知識方面,LongCat-Flash 同樣不甘示弱。在 ArenaHard-V2測試中,其得分達到86.50,位列所有評估模型的第二;而在 MMLU 和 CEval 基準測試中分別獲得89.71和90.44的高分,顯示出其在語言理解和中文能力評估上的競爭力。
LongCat-Flash-Chat 以其高效的推理速度和出色的智能體表現,不僅在技術上領先同行,且其開源舉措也爲開發者提供了更多的研究和應用機會。
項目地址:https://github.com/meituan-longcat/LongCat-Flash-Chat
體驗官網:https://longcat.ai/
