2026年2月12日,字节跳动 Seed 团队正式发布新一代视频创作模型 Seedance2.0。该版本采用统一的多模态音视频联合生成架构,标志着 AI 视频生成从“单点突破”正式迈向“全能协作”的工业级应用阶段。

核心技术跃迁:从“能画”到“懂物理”

相比1.5版本,Seedance2.0在复杂交互与运动场景下的可用率大幅提升。模型通过出色的物理还原能力,攻克了双人花滑、多人竞技等高难度动作的逻辑难题,确保了运动过程中的连贯性与真实感。同时,新版本支持 15秒高质量多镜头输出,并集成了双声道立体声技术,实现了音画同步的沉浸式视听体验。

QQ20260212-140709.png

多模态全能参考:导演级的操控自由

Seedance2.0彻底打破了素材边界。它不仅支持文字、图片、音频、视频四种模态输入,更允许用户同时引入多达9张图片及多段视听素材作为参考。创作者可以精准指定构图、运镜、甚至文字分镜脚本,实现“所想即所见”的精准控制。

编辑与延展:不仅仅是生成

为了贴合工业级创作流,Seedance2.0新增了强大的视频编辑与延长能力。用户可对特定片段、角色动作进行定向修改,或根据提示词进行镜头接续。这种“接着拍”的能力,极大降低了影视、广告及电商领域的制作门槛与成本。

目前,Seedance2.0已在即梦AI、豆包等平台上线。尽管团队坦言在多主体一致性及细节拟真度上仍有优化空间,但其展现出的多模态泛化能力已稳居业界 SOTA 水平。

地址:https://seed.bytedance.com/zh/seedance2_0

体验入口:

1)即梦网页端-视频生成-选择 Seedance2.0;

2)豆包 App 对话框-Seedance2.0-选择2.0模型;

3)火山方舟体验中心-选择 Doubao-Seedance-2.0。