騰訊近日正式開源其全新多模態定製視頻生成框架——HunyuanCustom,標誌着AI視頻創作進入更高自由度與精準控制的全新階段。該框架基於騰訊自研的 HunyuanVideo 打造,主打**“主體一致性”與“多模態靈活輸入”**,致力於實現視頻內容與輸入素材高度匹配的個性化生成。

HunyuanCustom 的核心優勢在於其強大的多模態輸入能力:支持用戶通過文本描述、單圖或多圖圖像、參考音頻甚至已有的視頻片段作爲輸入,系統可綜合這些信息生成定製化視頻。這種跨模態感知能力爲內容創作提供了極大的靈活性和表現力。

QQ20250512-094435.png

在視頻內容的準確性方面,HunyuanCustom特別強調人物或物體在視頻中的身份一致性,有效解決了傳統AI視頻中“換臉失真”或形象漂移的問題,使得生成結果更真實、統一、可信。

QQ20250512-094446.png

該框架的潛力正在多個行業場景中逐步顯現,包括但不限於:

  • 虛擬人物廣告:快速生成具備特定形象的AI人物進行商業宣傳;

  • 虛擬試穿:幫助用戶在線預覽不同穿搭效果,提升電商體驗;

  • 唱歌頭像生成:將照片與音樂融合,打造趣味性與表現力兼具的個性化視頻;

  • 智能視頻編輯:自動替換視頻中的指定人物或對象,提高後期製作效率。

騰訊表示,HunyuanCustom 的開源將顯著降低多模態視頻創作門檻,爲開發者、內容創作者以及各類行業用戶提供高質量、高一致性的視頻生產能力,進一步拓展AI視頻的實用邊界。

地址:https://github.com/Tencent/HunyuanCustom