谷歌 DeepMind 今日宣佈爲其領先的 AI 視頻生成模型 Veo 引入革命性的“精確編輯”功能。該功能允許用戶通過簡單文本提示輕鬆向現有視頻中添加或刪除元素,如道具、角色或背景物體,同時智能重建場景以確保物理真實性和視覺連貫性,完美保留原始視頻的完整性。
據 AIbase 報道,此次更新標誌着 AI 視頻編輯從粗放式生成向精細化後處理轉型,將極大提升創作者在 Flow 平臺上的生產效率。 Veo 的精確編輯功能是 Veo3.1升級的一部分,專爲谷歌的 AI 電影製作工具 Flow 設計。它利用先進的生成式 AI 算法,考慮光影、比例、物體交互和運動軌跡,實現無縫修改。
例如,用戶可以指示“向場景中添加一輛黃色校車”或“移除路邊的行人”,模型將自動填充背景、調整陰影並維持相機運動的一致性,避免傳統編輯軟件中常見的“跳幀”或不自然痕跡。在演示視頻中,該功能展示了從靜態圖像到動態多鏡頭敘事的完整流程,用戶僅需幾秒鐘即可迭代內容,而無需重新拍攝或手動蒙版。
據 AIbase 分析,Veo3.1的核心創新包括增強的音頻同步、多提示場景生成和原生1080p 輸出,支持視頻長度擴展至1分鐘。這使得精確編輯不僅適用於短片創作者,還能服務於廣告、營銷和企業培訓場景。例如,在 Flow 中,用戶可上傳“成分”(如預定義角色或風格參考),然後通過精確編輯擴展鏡頭,實現從單幀到完整故事板的自動化。相比前代 Veo3,該版本在角色一致性和敘事控制上提升了30% 以上,基準測試顯示編輯準確率達95%,顯著優於競爭對手如 OpenAI 的 Sora2。 “精確編輯讓 AI 視頻創作真正民主化,用戶無需專業技能即可實現好萊塢級別的修改,”
DeepMind 在官方博客中表示,該功能已集成至 Flow 的實驗性工具中,支持 Google AI Pro 和 Ultra 訂閱用戶優先訪問。開發者可通過 Vertex AI 平臺預覽企業級應用,包括自定義語音和物體移除優化。此前 Veo 已在 Imagen3和 Chirp3模型中展現出類似 inpainting 能力,推動視頻 AI 從實驗階段向生產就緒轉型。 隨着內容創作者對高效工具的需求激增,Veo 的精確編輯有望重塑數字敘事生態,從獨立電影到社交媒體短視頻均受益匪淺。