硅基流動(SiliconCloud)正式上線了全球首個開源的大規模混合注意力推理模型 ——MiniMax-M1-80k(456B)。這一創新模型旨在爲軟件工程、長上下文理解和工具使用等複雜任務提供強有力的支持,並且在性能上可與目前頂尖的模型如 o3和 Claude4Opus 相媲美。
據悉,MiniMax-M1-80k 具備最大支持128K 的上下文長度,這爲處理長文本提供了極大的便利。對於有特殊需求的用戶,平臺還提供了後臺支持,滿足1M 的長上下文需求。使用該模型的價格爲輸入 ¥4每百萬 Tokens,輸出則爲 ¥16每百萬 Tokens。新用戶在首次使用時還能享受到14元的體驗贈金。
MiniMax-M1-80k 模型的研發基於 MiniMax-Text-01,採用了混合專家系統(MoE)架構和 Lightning Attention 機制,具備高效的強化學習擴展框架。這一設計使得模型不僅適用於傳統的數學推理任務,還能夠在真實的沙盒軟件開發環境中發揮作用。因此,它成爲了需要長文本處理與深度思考任務的理想選擇。
在性能方面,MiniMax 的基準測試顯示,該模型在生成10萬 Tokens 時,FLOPs 消耗僅爲 DeepSeek R1的25%,這意味着其推理算力的高效擴展。同時,MiniMax-M1-80k 在數學、編程、工具使用及長上下文理解等領域的評測結果都與 o3等頂尖模型不相上下。
SiliconCloud 作爲一站式的大模型雲服務平臺,致力於爲開發者提供優質的服務。除了 MiniMax-M1-80k,平臺上還推出了多款優秀的模型,包括 DeepSeek-R1-0528、Qwen3、GLM-4系列等,極大豐富了開發者的選擇。特別是 DeepSeek-R1的蒸餾版及其他多款模型均可免費使用,助力開發者實現 “Token 自由”。
如需體驗新上線的 MiniMax-M1-80k,用戶可通過 SiliconCloud 官方網站進行在線體驗和接入,進一步推動生成式 AI 的應用發展。
在線體驗
https://cloud.siliconflow.cn/models
第三方應用接入教程
https://docs.siliconflow.cn/cn/usercases/