在全球大模型競速日益激烈的背景下,螞蟻集團旗下的百靈大模型再次發力,正式推出了名爲 Ling-2.6-flash 的全新 Instruct 模型。這款模型憑藉極高的“智效比”,在人工智能領域引起了廣泛關注。
從技術參數來看,Ling-2.6-flash 的表現堪稱均衡。該模型的總參數量達到了 104B,而實際運行中的激活參數僅爲 7.4B。這種設計思路顯然是在追求性能與效率之間的最優解。在國際權威機構 Artificial Analysis 的最新評測數據中,Ling-2.6-flash 展示了令人驚歎的能效表現:完成同等任務僅消耗了 15M tokens。這一數據僅爲 Nemotron-3-Super 等主流同類模型的十分之一左右,意味着開發者能以更低的資源成本獲得同等級別的智能支持。
事實上,在該模型正式官宣之前,它已經以匿名形式上線進行了一週的壓力測試。數據顯示,在此期間其日均 tokens 調用量已迅速攀升至 100B 級別。這種“先試後發”的策略不僅驗證了模型在真實高併發場景下的穩定性,也側面反映出市場對高性能、高性價比模型架構的強烈需求。
業內分析認爲,Ling-2.6-flash 的推出標誌着大模型競爭正從單純的“參數規模戰”轉向“智效比拼”的新階段。通過優化參數激活機制,該模型在保持大規模知識儲備的同時,極大降低了推理門檻。這對於需要大規模部署 AI 應用的企業而言,無疑提供了一個更具經濟效益的替代方案。
