オラクルは、人工知能(AI)チップ市場におけるNVIDIAの主導的地位を挑戦する重要な取り組みを準備しています。同社は2026年にインフラストラクチャにAMDのMI450 AIアクセラレータを50,000台導入すると発表しました。この動きは、競争が激化するAIクラウド市場においてオラクルが台頭していることを示しており、多くの企業が生成型AIワークロードをサポートするために高性能チップを求めています。
図の出典:AI生成画像、画像ライセンス提供者Midjourney
オラクルクラウドインフラストラクチャ上級副社長のKaran Batta氏は、「私たちは顧客がAMD製品を特に推論(inferencing)分野で非常に喜ぶと考えています」と語りました。今回の発表には2つの取り組みが含まれます。一つは、AMDとの協力によってハードウェア力を強化すること、もう一つはオープンスタンダードに対応した新しいデータプラットフォームのリリースです。
オラクルは2026年第三四半期からAMDのAIアクセラレータを導入し、生産能力が向上した後はさらに拡大する予定です。この計画は、急速に成長するAIインフラストラクチャ市場におけるオラクルの地位を強化し、現在はNVIDIAのGPUが主導している市場において顧客に新たな選択肢を提供します。発表後にAMDの株価は3%以上上昇し、市場がAMDが大規模な競争に耐えられるという信頼を示しています。
また、オラクルがAMDと深く協力していることは、業界がハードウェアの多様性にますます注目していることを示しています。今後リリースされるオラクルのクラウドインフラストラクチャ拡張により、顧客はAMDとNVIDIAのGPUインスタンスを利用できるようになり、AIモデルのトレーニングや推論の柔軟性が高まります。この取り組みは、オラクルとOpenAIとの3000億ドル規模の5年間契約とも密接に関係しており、OpenAIはオラクルのクラウドインフラストラクチャを使用してAIワークロードを実行します。
ただし、この取引の経済的合理性については疑問が残っています。オラクルとAMDはコスト構造や調達スケジュールについてまだ明かしていません。アナリストたちは、新規生産能力がいつ稼働開始になるのか、そしてオラクルがどの程度の利益率を達成できるのかについて推測しています。
ハードウェア面での大きなアップデートに加えて、オラクルは独自のAI湖倉(Autonomous AI Lakehouse)をリリースしました。これは次世代のデータおよび分析プラットフォームであり、クラウド間のデータ管理を統一し、Apache Icebergオープンテーブル形式をサポートすることでデータ相互運用性を促進することを目的としています。このプラットフォームはオラクルの自律型データベースの上に構築され、AI駆動のデータ準備、SQLクエリの高速化、組み込みガバナンス機能を統合しています。InfoWorldの報道によると、このサービスはDatabricks Unity、AWS Glue、Snowflake Polarisなどの外部ディレクトリと統合されており、オラクルがサプライヤー中立的な相互運用性への転換を進める意思を示しています。
ポイント:
1. 🚀 オラクルは2026年にAMDのAIアクセラレータ50,000台を導入し、NVIDIAの市場での地位を挑戦する予定です。
2. 📊 新しくリリースされた自律型AI湖倉プラットフォームはオープンスタンダードをサポートし、データの相互運用性を促進し、クラウド間の管理能力を強化します。
3. 🤝 オラクルとOpenAIの深い協力関係は、AIクラウドサービスの発展をさらに推進する予定です。