近日,清華大學 TSAIL 實驗室聯合生數科技推出了全新的開源視頻生成加速框架TurboDiffusion。這一突破性的技術框架在確保視頻生成質量不減的前提下,成功將端到端擴散生成的推理速度提升了100至200倍。

image.png

AIbase 獲悉,該框架爲了實現極致的生成效率,集成了 SageAttention 和 SLA(稀疏線性注意力機制)。這些技術顯著降低了模型在處理高分辨率視頻內容時的計算開銷。此外,開發團隊還引入了 rCM(時間步蒸餾)技術,通過大幅減少擴散過程中的採樣步數,讓視頻生成在保持視覺一致性的同時,實現了極低的計算延遲。

根據GitHub公佈的實測數據,TurboDiffusion 的加速表現令人震驚。在單張 RTX5090顯卡上,原本生成5秒視頻需要184秒,而使用該框架後僅需1.9秒即可完成。對於參數量更大的模型,其提升更爲顯著:原本耗時約1.2小時的720P 視頻生成任務,現在被壓縮到了短短38秒,性能遠超目前市面上的同類加速方案。

image.png

目前,TurboDiffusion 已開源並提供了多種規格的模型權重供用戶下載。針對消費級顯卡(如 RTX4090/5090)和工業級顯卡(如 H100),團隊分別提供了量化版與非量化版的優化方案。這意味着無論是個人創作者還是企業級用戶,都能通過這一工具顯著提升 AI 視頻的生產效率。

github:https://github.com/thu-ml/TurboDiffusion

劃重點:

  • 效能飛躍:清華開源框架將 AI 視頻生成提速最高200倍,RTX5090顯卡可實現1.9秒產出5秒視頻。

  • 🛠️ 技術核心:通過 SageAttention、稀疏線性注意力機制以及時間步蒸餾技術,在不損耗畫質的情況下大幅削減算力需求。

  • 🌐 全面適配:框架已開放模型權重,並針對不同顯存容量的顯卡提供了量化優化方案,極大降低了高性能 AI 視頻生成的門檻。