Wayve公司近日隆重推出了其最新的視頻生成世界模型——GAIA-2。 這一突破性的技術是其上一代模型GAIA-1的重大升級,旨在通過生成高度多樣化和可控的駕駛場景視頻,極大地推動輔助和自動駕駛系統的安全性發展. GAIA-2的發佈標誌着Wayve在利用生成式人工智能技術賦能更安全、更智能的出行方面邁出了堅實的一步

GAIA-1的飛躍:場景多樣性全面提升

與GAIA-1相比,GAIA-2最顯著的提升在於其生成視頻場景的豐富性和真實感. 爲了訓練和驗證自動駕駛系統在各種複雜環境下的性能,需要接觸到儘可能多的不同場景. 然而,僅僅依賴真實世界的數據收集在成本和時間上都存在侷限性,特別是對於罕見但至關重要的安全場景

GAIA-2通過擴展其地理覆蓋範圍,能夠生成包括英國、美國和德國在內的多個國家的不同駕駛場景. 這意味着AI駕駛模型可以在合成數據中學習適應不同地區的交通規則和道路標誌

此外,GAIA-2還支持對時間、天氣和道路類型進行精細的控制. 開發者可以輕鬆生成從黎明到夜晚、從晴朗到雨霧等各種光照和天氣條件下的駕駛視頻. 同時,模型也能夠模擬城市、郊區和高速公路等不同的道路環境. 這種全面的場景多樣性使得AI駕駛系統能夠在各種複雜和不可預測的真實世界條件下進行更充分的訓練和驗證。

QQ_1743390105129.png

多視角同步生成:更全面的環境感知

GAIA-2的另一項關鍵技術突破是支持同時生成多達五個視角的視頻. 這對於訓練和評估依賴多傳感器融合的自動駕駛系統至關重要. 通過確保多個攝像頭視角在時間和空間上的一致性, GAIA-2能夠幫助AI模型更準確地理解周圍環境,從而做出更安全可靠的駕駛決策

高風險場景模擬:提升系統應對極限情況的能力

爲了應對自動駕駛中最大的挑戰之一——處理意外情況, GAIA-2具備生成高風險場景的能力. 這包括模擬碰撞前的緊急情況、車輛緊急制動以及車輛出現漂移等極端行爲

傳統上,這些安全關鍵場景在真實世界數據中非常稀少,難以系統地收集和用於訓練. GAIA-2通過精確控制場景中各個要素(包括車輛、行人和其他交通參與者的位置、動作和交互) , 能夠主動模擬這些高風險情境. 這使得開發者可以在受控的環境中對自動駕駛系統的失效保護機制進行嚴格的驗證, 從而在實際道路部署之前就能夠提升系統的魯棒性和安全性

技術原理:更高效、更可控的生成框架

GAIA-2之所以能夠實現如此強大的功能,得益於其先進的模型架構和訓練方法. 它採用了潛在擴散模型, 並結合了廣泛的領域特定條件輸入. 這使得GAIA-2能夠對包括車輛自身行爲(如速度、轉向)、環境因素(如天氣、時間)、道路配置(如車道數、限速)以及動態交通參與者的行爲 等關鍵駕駛因素進行精確控制

GAIA-2還引入了視頻標記器, 將原始像素空間的視頻壓縮到緊湊的語義潛在空間中,實現了駕駛動態的高效表示. 這種架構上的創新不僅提升了生成效率,也保證了跨多個攝像機視角的時空一致性

GAIA-2的發佈是Wayve在生成式世界建模領域取得的又一重大進展. 其強大的場景生成能力將極大地擴展自動駕駛系統的測試覆蓋範圍,加速模型的迭代和優化. 通過彌合仿真和實際部署之間的差距, GAIA-2將在推動更安全、更可靠的自動駕駛技術走向現實 的過程中發揮關鍵作用. Wayve也表示將繼續在可控性、場景真實性和智能體交互建模等方面進行探索,以進一步提升生成模型的性能

項目:https://top.aibase.com/tool/gaia-2