近日,硅基流動大模型服務平臺正式上線了螞蟻集團百靈團隊最新開源的 Ling-mini-2.0。這個新模型在保持先進性能的同時,展現出極高的生成速度,標誌着在小體量的同時實現了大能量的突破。

Ling-mini-2.0採用了 MoE 架構,總參數達到16B,但在生成過程中每個 Token 僅激活1.4B 的參數,從而大幅提升了生成速度。這一設計不僅使得模型在處理任務時依舊保持卓越性能,還能與10B 以下的 Dense 語言模型以及其他更大規模的 MoE 模型進行有效比較。其最大上下文長度支持達到128K,極大提升了模型的適用範圍。

在基準測試中,Ling-mini-2.0在多個領域的推理任務中表現優異。無論是編碼、數學還是知識密集型推理任務,Ling-mini-2.0都取得了令人滿意的成績,展現出其強大的綜合推理能力。特別是在高難度的任務中,該模型的性能優於許多同類產品,表現出色。
此外,Ling-mini-2.0在生成速度上也頗具優勢。在2000Token 以內的問答任務中,其生成速度超過300個 Token 每秒,比傳統的8B Dense 模型快了2倍以上。隨着輸出長度的增加,該模型的速度還可以提高,最高可達7倍的相對加速。
爲了方便開發者使用,硅基流動平臺還提供了多種接入方案和 API 文檔,支持開發者在平臺上進行模型的對比與組合,幫助他們輕鬆實現生成式 AI 應用。平臺內還有多款大模型 API 供開發者免費使用,進一步推動了 AI 技術的普及和應用。
劃重點:
🧠 Ling-mini-2.0總參數16B,每個 Token 僅激活1.4B 參數,實現高效生成。
🚀 模型支持128K 最大上下文長度,展現出強大的推理能力。
💻 硅基流動平臺提供多種接入方案,支持開發者輕鬆使用多款大模型 API。
