GTC2026の年次総会で、NVIDIAの創設者であるホン・レン・ユン氏は、「Vera Rubin」という名前の次の世代のAIアクセラレーションプラットフォームを正式に発表しました。このプラットフォームは、暗物質の証拠を発見した天文学者ヴァラ・ルービンにちなんで命名されており、NVIDIAが単一のチップサプライヤーから全体的なAI工場インフラストラクチャへの深い転換を示しています。Rubin GPUは台湾積電(TSMC)の3ナノメートル先端製程を採用し、3360億個のトランジスターを統合しており、前世代のBlackwellよりも60%以上も向上しています。

チップ サイエンス (2)

Rubinプラットフォームは「六芯協同」によってスーパーコンピュータの基準を再構築しています。そのスーパーチップにはVera CPUと2つのRubin GPUが統合され、288GBのHBM4メモリが搭載されています。帯域幅は22TB/sに達します。性能面では、RubinのFP4推論演算能力は50PFLOPSに達し、Blackwellの5倍であり、ワット当たりの性能は10倍向上し、混合エキスパートモデル(MoE)のトレーニングの障壁を顕著に低下させました。また、NVIDIAは2027年にリリース予定のRubin Ultraについても同時に明らかにし、そのNVL576構成は推論演算能力を15ExaFLOPSへと引き上げる予定です。

ホン・レン・ユン氏は、Vera Rubinプラットフォームが全面的に生産を開始し、初回のシステムは2026年後半にAWS、グーグルクラウド、マイクロソフトAzureなどの大手企業に納入される予定であると発表しました。現在、BlackwellとRubinアーキテクチャの予想注文規模は1兆ドルに達し、以前の予測を上回っています。OpenClawなどのスマートエージェントフレームワークのオープンソース化およびGroq資産の統合後のLPU製品の登場とともに、NVIDIAは「一年に一度の更新」という積極的なペースで、地上のスーパーコンピューターセンターから宇宙空間の衛星データセンターに至るまでをカバーするAIインフラストラクチャーの構築を進めています。