AIGCが画像と文章の分野を席巻した後、映画業界の最後の「人工的な砦」である吹き替えも、アリババ・トンイー研究所によって突破され始めている。3月16日、トンイー研究所は、世界初の映画レベルでさまざまなシナリオに対応するマルチモーダル大規模モデル Fun-CineForge を正式に発表し、オープンソース化した。

長期間にわたり、AI吹き替えは「機械的な感覚」と「放送作家風」のタグを外すことができなかった。特に映画やドラマのシナリオにおいて、キャラクターの感情の高まり、環境音の混ざり合い、口元の同期などは、AIにとって越えられない壁だった。それに対してFun-CineForgeの登場は、この問題を終わらせるためのものである。

この大規模モデルは画期的な「データ+モデル」統合設計を採用している。モデルそのものだけでなく、トンイー研究所は高品質なデータセット構築方法も公開した。これは、AIが単なるテキストの読み上げではなく、映画やドラマの中の複雑な文脈を深く理解し、繊細な感情の変化やさまざまなシナリオにおける空間サウンド効果を再現できるようになったことを意味している。

アリババ・トンイーの一員として、Fun-CineForgeのオープンソース性は非常に強力だ。これは動画クリエイターに「映画レベル」の後処理ツールを提供するだけでなく、技術の普及により、中編劇や個人クリエイターでも極めて低コストで高品質な多言語字幕制作が可能になる。

昨年発表されたQwen3-Omniから今度のFun-CineForgeまで、トンイー