サンディエゴで開催されたNeurIPSで、NVIDIAは最新の自律走行AIモデルであるAlpamayo-R1(AR1)を発表しました。このAR1は、より広範囲な自律走行車両の実現を加速することを目的としています。NVIDIAによると、AR1は世界初の産業用オープンリレーショナルビジュアル言語行動(VLA)モデルであり、テキストと画像の両方を処理できるため、自動車のセンサーが「見ている」情報を自然言語に変換するのを支援します。
AR1は推論チェーンAIとルート計画技術を組み合わせており、複雑な状況をより良く処理できます。従来の自律走行ソフトウェアと比較して、AR1はシーンを分析し、すべての可能な選択肢を考慮することで、人間のような思考方式进行る意思決定を行います。NVIDIAは、この能力が4レベルの自動化を実現するために不可欠であると述べています。4レベルの自動化とは、特定の条件下において自動車が運転プロセスを完全に制御するものと、自動車工学協会によって定義されています。
発表と同時に公開されたブログでは、NVIDIAの応用深層学習研究部長であるブライアン・カタンザロ氏は、AR1の動作原理を説明する事例を提供しました。彼は、歩行者が多い地域や自転車道沿いを走行している場合、AR1は推論チェーンを使って経路データを分析し、自転車道を避けるまたは潜在的な横断者に対して停止するなどの合理的な運転判断を行うことができると述べました。この推論に基づく思考方式により、エンジニアはAIが特定の判断をした理由をより明確に理解でき、これにより車両の安全性を向上させることが可能になります。
AR1モデルは、今年早春にNVIDIAが公開したCosmos Reasonを基盤としています。オープンアクセスにより、研究者は非営利目的でこのモデルをカスタマイズし、ベンチマークテストや自律走行車両の開発を行うことができます。AR1は現在、GitHubとHugging Faceで公開されており、カタンザロ氏は後続の強化学習トレーニングが推論能力の向上に顕著な効果をもたらし、研究者からのフィードバックは「大幅な改善」をもたらしたと述べています。
ポイント:
🌟 AR1は、テキストと画像の両方を処理できる世界初の産業用オープンリレーショナルビジュアル言語行動(VLA)モデルです。
🚗 AR1は人間の推論を模倣し、自律走行技術における複雑なシナリオの処理能力を向上させます。
🔍 モデルはGitHubとHugging Faceで公開されており、研究者が非営利目的でカスタマイズして使用できます。
