2025年3月10日,一項名爲 TrajectoryCrafter 的前沿技術正式亮相,引發了科技界和視頻創作領域的廣泛關注。這項基於擴散模型(diffusion models)的創新技術,能夠從單一視角的單目視頻中推斷並生成全新的視角,爲視頻後期製作帶來了革命性的可能性。
TrajectoryCrafter 的核心在於其強大的視角重定向能力。傳統的單目視頻受限於單一相機視角,創作者往往無法在後期調整拍攝角度或運鏡方式。而 TrajectoryCrafter 通過擴散模型的深度學習技術,能夠分析視頻內容並推演出三維空間信息,從而允許用戶在後期自由調整相機位置和角度。無論是繞着物體旋轉、拉近鏡頭捕捉細節,還是拉遠鏡頭展現全景,這項技術都能輕鬆實現。更令人興奮的是,它甚至支持類似“子彈時間”(bullet time)的特效——凍結時間,同時讓鏡頭環繞主體旋轉,帶來極具衝擊力的視覺體驗。
此外,rajectoryCrafter 支持六自由度(6DoF)的相機調整,這意味着用戶不僅可以控制鏡頭的前後左右移動,還能調整俯仰、偏航和滾轉角度。這種靈活性爲視頻編輯者提供了前所未有的創作自由。例如,一段簡單的手機拍攝視頻,經過 TrajectoryCrafter 的處理,可以變成彷彿由專業攝影設備拍攝的多角度動態畫面。
技術的開發者在公開頁面上展示了多個令人印象深刻的案例。例如,在一段記錄街頭表演的單目視頻中,TrajectoryCrafter 成功生成了從不同角度觀察表演者的鏡頭,甚至模擬了鏡頭從低角度緩緩升至高空的運鏡效果。演示視頻還顯示,該技術能夠處理複雜的動態場景,確保生成的視角保持時間和空間上的一致性。
目前,TrajectoryCrafter 的代碼和演示已在網上公開,供開發者和研究人員體驗與測試。這一技術的問世不僅推動了人工智能在視頻生成領域的進步,也爲普通用戶提供了更具創意的工具。業內人士預測,TrajectoryCrafter 可能會改變短視頻創作、影視後期製作乃至虛擬現實內容的生成方式。
TrajectoryCrafter 官網: https://trajectorycrafter.github.io/
TrajectoryCrafter 在線試用: https://huggingface.co/spaces/Doubiiu/TrajectoryCrafter