2025年9月19日,阿里雲宣佈通義萬相全新動作生成模型 Wan2.2-Animate 正式開源。該模型能夠驅動人物、動漫形象和動物照片,廣泛應用於短視頻創作、舞蹈模板生成、動漫製作等領域。用戶可以在 GitHub、HuggingFace 和魔搭社區下載模型和代碼,也可以通過阿里雲百鍊平臺調用 API 或在通義萬相官網直接體驗。
Wan2.2-Animate 模型是基於此前開源的 Animate Anyone 模型全面升級的成果,在人物一致性、生成質量等指標上大幅提升,同時支持動作模仿和角色扮演兩種模式。在角色模仿模式下,輸入一張角色圖片和一段參考視頻,模型可以將視頻角色的動作和表情遷移到圖片角色中,賦予圖片角色動態表現力。而在角色扮演模式下,模型可以在保留原始視頻的動作、表情及環境的基礎上,將視頻中的角色替換爲圖片中的角色。

通義萬相團隊構建了一個涵蓋說話、面部表情和身體動作的大規模人物視頻數據集,並基於通義萬相圖生視頻模型進行後訓練。Wan2.2-Animate 將角色信息、環境信息和動作等規範到統一的表示格式,實現了單一模型同時兼容兩種推理模式。針對身體運動和臉部表情,模型分別使用骨骼信號和隱式特徵,配合動作重定向模塊,實現動作和表情的精準復刻。在替換模式中,團隊還設計了一個獨立的光照融合 LoRA,用於保證完美的光照融合效果。
實測結果顯示,Wan2.2-Animate 在視頻生成質量、主體一致性和感知損失等關鍵指標上超越了 StableAnimator、LivePortrait 等開源模型,成爲目前性能最強的動作生成模型。在人類主觀評測中,Wan2.2-Animate 甚至超越了以 Runway Act-two 爲代表的閉源模型。
GitHub:https://github.com/Wan-Video/Wan2.2
魔搭社區:https://modelscope.cn/models/Wan-AI/Wan2.2-Animate-14B
HuggingFace:https://huggingface.co/Wan-AI/Wan2.2-Animate-14B
