近日,清華大學TSAIL實驗室聯合生數科技正式開源視頻生成加速框架TurboDiffusion,這一突破性技術將AI視頻擴散模型的推理速度提升100至200倍,同時保持視覺質量幾乎無損,標誌着AI視頻創作正式進入實時生成時代。
加速性能驚人:從分鐘級到秒級生成
TurboDiffusion針對現有開源視頻生成模型(如Wan2.1和Wan2.2系列的1.3B至14B參數模型)進行了深度優化。在單張RTX5090顯卡上,端到端生成速度可達峯值200倍以上。例如:
-5秒長視頻生成時間從184秒縮短至1.9秒(約97倍加速);
- 高分辨率720P視頻在14B模型下,從數千秒降至數十秒。
即使在消費級RTX4090顯卡上,也能流暢運行大型模型,無需依賴昂貴的A100或H100專業卡。這大大降低了AI視頻生成的硬件門檻,讓更多開發者與創作者能夠輕鬆上手。

核心技術揭祕:多重優化組合拳
TurboDiffusion並非全新模型,而是高效推理框架,通過系統性創新實現近乎無損加速。主要技術包括:
-8位量化:採用SageAttention實現低比特注意力計算,利用Tensor Core加速;
- 稀疏線性注意力(SLA):僅保留關鍵注意力連接,進一步減少計算量;
- 時間步蒸餾(rCM):將傳統上百步採樣壓縮至3-4步,結合分數正則化連續時間一致性蒸餾,確保質量穩定。
這些技術正交結合,僅需6步訓練流程即可復現,極大提升了可操作性。項目完全開源,包括代碼、預訓練模型權重以及完整訓練腳本,已在GitHub上獲得廣泛關注。
行業影響深遠:開啓實時AI視頻新紀元
TurboDiffusion的發佈,被業內視爲視頻生成領域的“DeepSeek時刻”。它不僅解決了高分辨率、長時序視頻生成的延遲與成本痛點,還吸引了Meta、OpenAI等國際團隊的注意。該框架推動AI視頻從實驗階段向規模化應用轉型,未來有望支持交互式創作、企業級批量生產等場景。
AIbase認爲,這一開源項目將加速AI視頻工具的普及,徹底改變內容創作格局。感興趣的開發者可立即訪問GitHub倉庫(https://github.com/thu-ml/TurboDiffusion)體驗。
