2026年の国際コンシューマー・エレクトロニクス・ショウ(CES)で、NVIDIAは新たなオープンソースのAIプラットフォーム「Alpamayo」を発表しました。このプラットフォームは、実体ロボットや自動運転車に特化して設計されており、複雑なドライビングシーンにおいてよりスマートな意思決定を可能にすることが目的です。NVIDIAのCEOであるハン・ユンソン氏は、このプラットフォームのリリースが、現実世界で機械が理解し、推論し、行動する「ChatGPTの瞬間」がすでに到来したことを示していると述べました。

image.png

Alpamayoのコアは、「Alpamayo1」と呼ばれるモデルで、これは100億のパラメータを持ち、先進的な視覚-言語-行動(VLA)技術を使用しています。これにより、自動運転車は人間のように考えることができ、ラベル付けやトレーニングが行われていない状況でも、交通信号の故障など複雑なシナリオに対応できます。例えば、信号機が故障している交差点に遭遇した場合、Alpamayo1は安全な通過ルートを自主的に計画します。

NVIDIA自動車部門の副社長であるアリー・カーニー氏は、このモデルが複雑な問題をいくつかの単純なステップに分解して作業し、それぞれの可能性を評価し、最終的に最も安全な解決策を選択すると説明しました。つまり、車両はセンサーからの入力信号に基づいてハンドル、ブレーキ、アクセルを制御するだけでなく、取り出す予定の行動とその背後にある推論論理を明確に説明できるようになります。

image.png

開発者を支援するために、NVIDIAはHugging Faceプラットフォーム上でAlpamayo1の下位コードを公開しており、開発者がこのモデルを微調整し、軽量バージョンを作成することが可能です。さらに、NVIDIAは1,727時間にわたる国際的な運転データセットを提供しており、25か国の2,500以上の都市から収集された実際の道路状況を含んでいます。このデータセットは、開発者が自律走行システムをよりよくトレーニングおよびテストするためのものです。