在近期於聖地亞哥舉行的 NeurIPS 大會上,英偉達推出了其最新的自動駕駛 AI 模型 Alpamayo-R1(AR1),旨在加速實現更廣泛的無人駕駛汽車。英偉達稱,AR1是全球首個用於自動駕駛的行業級開放推理視覺語言行動(VLA)模型,能夠同時處理文本和圖像,幫助汽車傳感器將所 “看到” 的信息轉化爲自然語言描述。

AR1結合了推理鏈 AI 和路徑規劃技術,能夠更好地處理複雜情境。與以往的自動駕駛軟件相比,它通過分析場景並考慮所有可能選項,模擬人類的思考方式,從而進行決策。英偉達指出,這一能力對於實現四級自動化至關重要,四級自動化被汽車工程師協會定義爲在特定情況下,汽車完全控制駕駛過程。

在一篇與發佈會同步的博文中,英偉達應用深度學習研究副總裁布萊恩・卡坦扎羅(Bryan Catanzaro)提供了一個實例,說明 AR1的工作原理。他表示,在行駛於行人密集區域和自行車道旁的情況下,AR1可以利用推理鏈分析路徑數據,做出更合理的駕駛決策,比如避開自行車道或對潛在的橫穿馬路者停車等。這種基於推理的思考方式,能讓工程師更清晰地瞭解 AI 爲何做出某種決策,從而幫助提升車輛安全性。

AR1模型基於英偉達今年早些時候推出的 Cosmos Reason,開放訪問使得研究人員可以爲自己的非商業用途定製這一模型,進行基準測試或開發自主駕駛汽車。AR1現已在 GitHub 和 Hugging Face 上發佈,卡坦扎羅提到,後期強化學習訓練在提升推理能力方面效果顯著,研究人員反饋取得了 “顯著改善”。

劃重點:

🌟 AR1是全球首個行業級開放推理 VLA 模型,能夠同時處理文本和圖像。  

🚗 AR1模擬人類推理,提升自動駕駛技術的複雜場景處理能力。  

🔍 模型已開放在 GitHub 和 Hugging Face 上,供研究人員進行非商業性定製使用。