4月29日,科大讯飞正式发布了全新的星火X2-Flash模型,并同步开放API接口,标志着基于国产算力生态的大模型应用进入了全新的效能阶段。
该模型采用了当前主流的MoE(混合专家)架构,总参数量达到30B,最引人注目的特性是其支持高达256K的超长上下文。值得注意的是,星火X2-Flash完全基于华为昇腾910B集群训练完成,这展示了国产软硬件在深度学习训练领域的协同能力。

在核心性能上,星火X2-Flash在智能体(Agent)和代码生成能力方面实现了显著增强。根据第三方实测数据显示,该模型在处理深度研究报告、Skill管理与调用、以及系统控制执行等复杂任务时,其表现已经能够比肩业界万亿级参数的顶尖模型。
针对开发者关注的成本问题,星火X2-Flash表现优异。在相同的工作流测试中,其Token消耗量仅为目前主流大尺寸模型的三分之一,大幅度降低了构建复杂智能体应用的门槛。例如,在创建复杂的视频生成技能时,模型不仅能快速理解需求,还能细致地提供从技能结构到核心功能的详尽说明。

技术底层方面,星火X2-Flash率先在国产芯片上实现了DSA(稀疏注意力)与MTP(多Token预测)技术的结合。这一创新解决了长文本在国产算力平台上训练缓慢的痛点,使训练效率相比同规模集群提升了4.5倍。此外,针对智能体强化学习场景,该模型通过算法与工程的双重优化,将采样推理效率提升了2倍以上,有效缓解了长交互场景下的性能瓶颈。
目前,AstronClaw、Loomy等应用已率先完成接入。同时,该模型也实现了对OpenClaw、Claude Code等国际主流Agent框架的深度兼容,为全球开发者提供了更具性价比的国产算力方案。
