2025年のAWS re:Inventカンファレンスで、アマゾンウェブサービス(AWS)は最新の人工知能(AI)トレーニングチップ「Trainium3」を正式に発表しました。このチップは複数の面で顕著な進歩を遂げており、AIモデルのトレーニングに新たな可能性をもたらしています。
AWSによると、Trainium3チップは先進的な3ナノメートル製造プロセスを採用しており、第2世代の製品と比べて性能が4倍、メモリ容量も4倍、エネルギー効率は40%向上しています。これらの改良により、Trainium3は高負荷の推論やAIトレーニングのニーズにさらに適応できるようになります。
今回の発表されたTrainium3UltraServerシステムは、大規模なクラスター構築をサポートしており、最大で100万個のTrainium3チップを接続できます。これは前世代システムの10倍です。1台のUltraServerには最大144個のチップを収容でき、データ処理能力が大幅に向上します。アマゾンは、このシステムがAIクラウドサービスを使用する際の推論コストを顕著に削減し、AI技術の応用をさらに促進すると述べています。
また、AWSはTrainium4の開発計画についても明らかにし、この次世代チップがNVIDIAのGPUと協働して動作することを示しました。NVIDIAのNVLink Fusion高速接続技術をサポートすることで、Trainium4は全体のパフォーマンスを拡張するだけでなく、アマゾン独自の低コストサーバーアーキテクチャも利用できます。この取り組みは、既存のNVIDIA最適化されたAIアプリケーションをアマゾンクラウドプラットフォームに移行する障壁を下げることになるかもしれません。
ポイント:
🌟 Trainium3の性能は4倍に向上し、メモリ容量とエネルギー効率はそれぞれ4倍と40%に増加しました。
🔗 UltraServerシステムは最大100万個のチップを搭載し、超大規模クラスターをサポートします。
🚀 Trainium4はNVIDIA GPUと協働して動作し、AIアプリケーションの移行のハードルを低下させます。
