近日,硅基流動大模型服務平臺正式上線了螞蟻集團百靈團隊最新開源的 Ling-flash-2.0,這是該平臺上線的第130個模型。

Ling-flash-2.0是一款基於 MoE 架構的大型語言模型,擁有100億參數,並且在激活時僅使用6.1億參數(非嵌入激活4.8億)。經過20TB 以上高質量語料的預訓練、監督微調和多階段強化學習,該模型在激活6億以上參數的情況下,展現出了媲美40億參數 Dense 模型的卓越性能。

image.png

Ling-flash-2.0在複雜推理、代碼生成和前端研發等領域表現出色,能夠支持最大128K 的上下文長度,給用戶提供更強大的文本處理能力。其定價也相對親民,輸入爲每百萬個 Token1元,輸出爲每百萬個 Token4元。同時,國內和國際站的新用戶可分別獲得14元或1美元的使用體驗贈金。

Ling-flash-2.0在性能上具有明顯優勢。與40億參數以下的 Dense 模型(如 Qwen3-32B-Non-Thinking 和 Seed-OSS-36B-Instruct)以及更大激活參數的 MoE 模型(如 Hunyuan-A13B-Instruct 和 GPT-OSS-120B/low)相比,Ling-flash-2.0展現了更強的複雜推理能力。尤其在創作類任務中,該模型同樣具有很強的競爭力。

此外,Ling-flash-2.0的架構經過精心設計,能夠實現極速推理。在 Ling Scaling Laws 的指導下,Ling2.0採用了1/32激活比例的 MoE 架構,並在多個細節上進行了優化,這使得小激活的 MoE 模型能夠獲得相當於 Dense 架構的性能優勢。通過 H20進行部署時,Ling-flash-2.0的輸出速度可達到每秒200多個 Token,相比36B 的 Dense 模型提升了3倍以上的速度。

硅基流動平臺致力於爲開發者提供快速、經濟、可靠的大模型 API 服務。除了 Ling-flash-2.0,平臺上還匯聚了多種語言、圖像、音頻、視頻等模型,滿足開發者不同的需求。開發者可以在平臺上自由對比和組合各類模型,輕鬆調用高效的 API,助力生成式 AI 應用的最佳實踐。

國內站在線體驗

https://cloud.siliconflow.cn/models

國際站在線體驗

https://cloud.siliconflow.com/models

劃重點:

🌟 Ling-flash-2.0是基於 MoE 架構的100億參數語言模型,具備強大的複雜推理能力。

⚡ 模型支持最大128K 的上下文長度,提供極速推理體驗,輸出速度可達每秒200+Token。

💰 新用戶可在國內和國際站獲得使用體驗贈金,硅基流動平臺提供多種大模型服務,助力開發者創新。