月之暗面公司正式發佈了其最新力作——Kimi K2模型,並同步宣佈開源。這款基於MoE架構的基礎模型,憑藉其強大的代碼能力、卓越的通用Agent任務處理能力,一經發布便在AI領域引起了廣泛關注。
Kimi K2模型總參數高達1T,激活參數爲32B,在SWE Bench Verified、Tau2、AceBench等一系列基準性能測試中,均取得了開源模型中的頂尖成績,充分展現了其在代碼編寫、Agent任務執行以及數學推理等方面的領先實力。
在預訓練階段,Kimi K2採用了創新的MuonClip優化器,這一優化器有效解決了大規模訓練中的attention logits偏大問題,將訓練穩定性與token使用效率提升至新高度。月之暗麪糰隊成功完成了15.5T token的平穩訓練,全程無loss spike,爲萬億參數模型的穩定高效訓練提供了新思路。
除了基準性能測試中的優異表現,Kimi K2在實際應用場景中也展現出了強大的能力泛化和實用性。在代碼能力方面,Kimi K2不僅能夠生成設計感與視覺表現力兼備的前端代碼,支持粒子系統、可視化和3D場景等複雜表現形式,還能在無具體指令的情況下,自動搭建完整的期貨交易界面,展現了其強大的自主編程能力。
在Agent工具調用方面,Kimi K2同樣表現出色。它能夠穩定解析複雜指令,將需求自動拆解爲一系列格式規範、可直接執行的ToolCall結構,無縫接入各類Agent/Coding框架,完成複雜任務或自動化編碼。無論是分析遠程辦公比例對薪資的影響,還是爲Coldplay粉絲制定追星計劃並完成相關規劃,Kimi K2都能輕鬆應對,展現出強大的Agent能力。
此外,Kimi K2在風格化寫作方面也取得了顯著提升。無論是改寫科研文本爲初中生語氣,還是模仿蘋果廣告文案,Kimi K2都能準確控制輸出風格,同時保留原意與表達風格。在虛構寫作任務中,Kimi K2生成的文字更加關注細節與情感,不再是抽象泛泛而談,爲用戶提供了更加豐富的創作體驗。
月之暗面公司此次不僅發佈了Kimi K2模型,還同步開源了Kimi-K2-Base和Kimi-K2-Instruct兩個模型版本。其中,Kimi-K2-Base爲未經過指令微調的基礎預訓練模型,適合科研與自定義場景;而Kimi-K2-Instruct則爲通用指令微調版本,在大多數問答與Agent任務中表現卓越。模型及fp8權重文件已開源至HuggingFace平臺,供廣大開發者自由使用。
爲了方便開發者部署和使用,vLLM、SGLang、ktransformers等推理引擎也已經同步支持Kimi K2模型。開發者可以用自己的服務器部署,獲得與Kimi開放平臺API相同的體驗。
在API服務方面,Kimi K2也提供了全面的支持。其API服務現已全面上線,支持最長128K上下文,具備更強的通用性與工具調用能力。計費方案靈活合理,每百萬輸入tokens僅需4元,每百萬輸出tokens爲16元,同時兼容OpenAI和Anthropic兩種API格式,方便開發者無縫切換。