2026年2月12日、字節跳動のSeedチームは新しいビデオ制作モデル「Seedance2.0」を正式にリリースしました。このバージョンは統一されたマルチモーダル音声と映像の共同生成アーキテクチャを採用しており、AIによるビデオ生成が「単点突破」から「全能協力」への産業レベルの応用段階に入ったことを示しています。

コア技術の飛躍:「描ける」から「物理を理解する」へ

1.5バージョンと比較して、Seedance2.0は複雑なインタラクションや運動シーンでの実用性が大幅に向上しました。モデルは優れた物理的再現能力により、二人のフィギュアスケートや多人数競技などの高難度の動きの論理的な課題を克服し、運動過程の連続性と現実感を確保しました。また、新バージョンは15秒間の高品質なマルチカメラ出力をサポートし、ステレオサウンド技術を統合し、音画同期の没入型の視聴体験を実現しました。

QQ20260212-140709.png

マルチモーダルの全能性:演出家級の操作自由度

Seedance2.0は素材の境界を完全に打ち破りました。これは文字、画像、音声、ビデオの4つのモードの入力をサポートしているだけでなく、ユーザーが最大で9枚の画像および複数の視聴素材を同時に参照として導入することも可能です。クリエイターは構図やカメラワーク、甚至はテキストの分鏡脚本を正確に指定でき、「思い通りに見える」ような正確な制御が可能です。

編集と拡張:単なる生成にとどまらない

産業レベルのクリエイティブプロセスに合わせるために、Seedance2.0には強力なビデオ編集と延長機能が追加されました。ユーザーは特定のフレームやキャラクターの動作を対象にした修正を行い、またはプロンプトに従ってカットの継続を行うことができます。このような「続きを撮る」機能は、映画、広告、EC分野における制作のハードルとコストを大きく低下させました。

現在、Seedance2.0は即夢AI、豆包などのプラットフォームで利用可能です。チームは多主体の一貫性や細部の擬似度において改善の余地があることを認めていますが、その示すマルチモーダルの汎化能力はすでに業界のSOTA水準に安定しています。

住所:https://seed.bytedance.com/zh/seedance2_0