2025 年 4 月 21 日,Sand AI 發佈開源視頻生成模型 MAGI-1,以其創新的自迴歸擴散架構和卓越性能,迅速成爲生成式 AI 領域的焦點。

該模型採用 Apache 2.0 許可,代碼、權重和推理工具已在 GitHub 和 Hugging Face 開放,爲全球開發者提供強大創作工具

MAGI-1 基於擴散變換器架構,引入塊因果注意力、並行注意力塊、Sandwich 規範化等技術創新,通過分塊生成(每塊 24 幀)實現高效視頻生成。其獨特流水線設計支持並行處理,最多可同時生成四個塊,大幅提升效率

模型通過快捷蒸餾技術,支持靈活的推理預算,並在物理行爲預測和時間一致性上表現優異,適用於長篇敘事和複雜動態場景。MAGI-1 的“無限視頻擴展”功能允許無縫延長視頻內容,結合“秒級時間軸控制”,用戶可通過逐塊提示實現場景轉換和精細化編輯,滿足影視製作、講故事等需求。

在圖像到視頻任務中,模型展現出高保真輸出,原生分辨率達 1440x2568px,動作流暢、細節逼真。作爲開源模型,MAGI-1 提供 Docker 部署支持,24B 參數版本需 8 張 H100 GPU,未來 4.5B 版本將適配單張 RTX 4090,降低使用門檻

社區反饋稱讚其生成質量和指令遵循能力,評分超 Kling 1.6 和 Wan 2.1,但在非現實風格內容上仍有優化空間。

在競爭激烈的視頻生成領域,MAGI-1 以開源和自迴歸架構脫穎而出。Sand AI 計劃推出更輕量化版本,並深化硬件優化,未來或推動實時生成、虛擬現實等應用。MAGI-1 的發佈不僅是技術突破,更是對開源生態的貢獻,有望重塑視頻創作格局。

Github Page: https://github.com/SandAI-org/Magi-1

Hugging Face: https://huggingface.co/sand-ai/MAGI-1