今日のCESで、NVIDIAのCEOである黄仁勲氏は、同社が新しく開発したRubin計算アーキテクチャを正式に発表しました。これは現在のAIハードウェアにおける最高レベルのものとされています。Rubinアーキテクチャはすでに製造段階に入り、後半には急速な導入が進む予定です。

黄氏は「Vera Rubinは、AIに必要な計算量が急増しているという根本的な課題に取り組むためのものです」と語りました。また、「今、皆様に報告できますのは、Vera Rubinはすでに全面的に製造されているということです」と補足しました。

Rubinアーキテクチャは2024年に初めて発表され、NVIDIAがハードウェア開発を積極的に推進する最新の成果であり、この努力によりNVIDIAは世界で最も価値のある企業となりました。Rubinアーキテクチャは、これまでのBlackwellアーキテクチャを置き換えるもので、BlackwellはHopperやLovelaceに代わるものでした。

Rubinチップは、NVIDIAがAnthropic、OpenAI、そしてAmazon Web Services(AWS)などと重要な提携を結んだ主要なクラウドサービスプロバイダーによって採用されています。また、RubinシステムはHPEのBlue Lionスーパーコンピューターや、ローレンス・バークレイ国立研究所が近日中に導入予定のDoudnaスーパーコンピューターにも使用されます。

Rubinアーキテクチャは、天文学者Vera Florence Cooper Rubinにちなんで名付けられ、6つの独立したチップが協力して動作します。Rubin GPUがそのコアとなります。また、ストレージと接続のボトルネックに対処するために、BluefieldおよびNVLinkシステムが追加されました。さらに、自律的な推論を専門に設計された新型のVera CPUも含まれています。

NVIDIAのAIインフラソリューション上級責任者であるDion Harris氏は、電話会議の中で新しいストレージの利点を説明しました。彼は現代のAIシステムにおいてキャッシュに関連するメモリの需要が増加していると指摘し、自律型AIや長期的なタスクなどの新しいワークフローの導入により、キーバリューキャッシュ(KV cache)に対する要求が高まっていると述べました。彼は「我々は、計算デバイスの外部と接続できる新たなストレージ層を導入し、ストレージプールをより効率的に拡大できるようにしました」と語りました。

NVIDIAのテストによると、Rubinアーキテクチャはモデルトレーニングのタスクにおいて前世代のBlackwellアーキテクチャより3.5倍速く、推論タスクでは5倍速く、計算能力は50ペタフロップス(petaflops)に達しています。また、新プラットフォームでは1ワットあたりの推論計算能力は8倍向上しています。

Rubinアーキテクチャの登場は、AIインフラストラクチャーの競争が激化する中でのものです。各AIラボやクラウドサービスプロバイダーがNVIDIAのチップとそれが必要とする演算設備を巡って争っています。2025年10月に行われた決算電話会議では、黄氏は今後の5年間でAIインフラストラクチャーに3000億ドルから4000億ドルが投資される見通しであると予測しました。

ポイント:

🌟 Rubinアーキテクチャは、NVIDIAが最新に発表したAI計算アーキテクチャで、計算能力を大幅に向上させることが予定されています。

💻 Rubinチップは複数のクラウドサービス提供者によって採用されており、複数のスーパーコンピュータープロジェクトに使用されます。

⚡ Rubinアーキテクチャは、速度とエネルギー効率において前世代よりも大きく向上しており、AIインフラストラクチャーの競争に新たな活力を与えます。