2025年6月2日、人工知能チップ会社のCerebras Systemsは、その推論APIがすべての開発者に全面的に公開され、待ちリストの制限が撤廃されたことを発表しました。この措置は、Cerebrasが生成型AIアプリケーションの開発を加速させる重要なステップであり、グローバルな開発者に効率的で迅速なAI推論サービスを提供します。

Cerebrasの公式声明によると、開発者は毎日無料で100万トークンの利用枠を獲得できます。この無料のクレジットは、Cerebrasの推論プラットフォームに基づく高性能AIアプリケーションの構築とテストに十分なリソースを提供します。Cerebrasは、その推論APIが従来のGPUソリューションよりも大幅に高速であると述べており、推論速度はGPUの20倍に達し、リアルタイム音声処理、ビデオ処理、複雑な推論モデル、コード生成などのシナリオで特に優れたパフォーマンスを発揮します。テストデータでは、Cerebrasの推論サービスがLlama4Scoutモデルを実行する際、1秒間に2600以上のトークンの生成速度を達成し、他のGPUベースのAPIプロバイダーと比べても圧倒的な性能を示しています。

QQ20250603-104012.png

Cerebrasの推論APIは、Llama4やQwen3-32Bなど、主要なオープンソースモデルをサポートしており、開発者は簡単なAPI呼び出しを行うことでこれらのモデルを迅速に統合できます。さらに、Hugging FaceやMetaなどのプラットフォームとの提携により、Cerebrasの推論APIはこれらのエコシステムにスムーズに統合され、開発者の使用障壁を低減しました。例えば、Hugging Faceの500万人の開発者は、プラットフォーム上でCerebrasを推論プロバイダーとして選択するだけで、その高パフォーマンスを体験できます。

Cerebrasの最高経営責任者(CEO)であるAndrew Feldman氏は次のように述べています。「我々は開発者に最も速いAI推論サービスを提供することを目指し、彼らがリアルタイムで知能化されたアプリケーションをより効率的に構築できるよう支援しています。APIの全面公開と毎日の無料トークン提供は、我々がグローバルなイノベーションを支援する重要な一歩です。」

今回のAPIの全面公開により、スタートアップや個人開発者には低コストでのAI開発の機会が広がり、企業ユーザーには複雑なAIアプリケーションを構築するための効率的なツールが提供されます。Cerebrasの高性能推論能力と北米およびヨーロッパに新設された6つのデータセンターとの連携により、生成型AIが医療、金融、音声インタラクションなどの分野でさらなる普及が期待されます。

業界関係者は、Cerebrasのこの動きがAI推論市場に大きな影響を与える可能性があると指摘しています。特に、従来のGPUサプライヤーであるNvidiaなどの競争において、Cerebrasの独自の大規模ウェハーレベルエンジン(WSE-3)による技術的な強みが際立っています。将来、推論ニーズの継続的な増加に伴い、Cerebrasのオープン戦略がAIインフラ市場の全体的な構造を再編する可能性があります。