4月29日,科大訊飛正式發佈了全新的星火X2-Flash模型,並同步開放API接口,標誌着基於國產算力生態的大模型應用進入了全新的效能階段。

該模型採用了當前主流的MoE(混合專家)架構,總參數量達到30B,最引人注目的特性是其支持高達256K的超長上下文。值得注意的是,星火X2-Flash完全基於華爲昇騰910B集羣訓練完成,這展示了國產軟硬件在深度學習訓練領域的協同能力。

image.png

在覈心性能上,星火X2-Flash在智能體(Agent)和代碼生成能力方面實現了顯著增強。根據第三方實測數據顯示,該模型在處理深度研究報告、Skill管理與調用、以及系統控制執行等複雜任務時,其表現已經能夠比肩業界萬億級參數的頂尖模型。

針對開發者關注的成本問題,星火X2-Flash表現優異。在相同的工作流測試中,其Token消耗量僅爲目前主流大尺寸模型的三分之一,大幅度降低了構建複雜智能體應用的門檻。例如,在創建複雜的視頻生成技能時,模型不僅能快速理解需求,還能細緻地提供從技能結構到核心功能的詳盡說明。

image.png

技術底層方面,星火X2-Flash率先在國產芯片上實現了DSA(稀疏注意力)與MTP(多Token預測)技術的結合。這一創新解決了長文本在國產算力平臺上訓練緩慢的痛點,使訓練效率相比同規模集羣提升了4.5倍。此外,針對智能體強化學習場景,該模型通過算法與工程的雙重優化,將採樣推理效率提升了2倍以上,有效緩解了長交互場景下的性能瓶頸。

目前,AstronClaw、Loomy等應用已率先完成接入。同時,該模型也實現了對OpenClaw、Claude Code等國際主流Agent框架的深度兼容,爲全球開發者提供了更具性價比的國產算力方案。