4月25日、バイトダンス傘下の火山エンジンは、最新リリースの豆包1.5・深層思考モデルがエッジ大規模言語モデルゲートウェイに全面的に上线し、ユーザーに最大500万トークンの無料利用枠を提供すると発表しました。この動きはAI業界で大きな注目を集めています。

豆包1.5・深層思考モデルは、火山エンジンが開発した高性能AIモデルです。数学、コード、科学などの専門分野の推論タスクにおいて卓越した性能を示し、世界トップレベルに達するか、それに近いレベルに到達しています。このモデルは推論タスクだけでなく、創作ライティングなどの非推論タスクでも強力な汎化能力を発揮し、より広範かつ複雑な使用シナリオに対応できます。今回リリースされた豆包1.5には、推論能力に優れた大規模言語モデル「Doubao-1.5-thinking-pro」と、ビジュアル推論をサポートするマルチモーダル版の2つのバージョンがあります。

火山エンジンエッジ大規模言語モデルゲートウェイは、豆包1.5・深層思考モデルを強力にサポートします。ユーザーは現在、エッジ大規模言語モデルゲートウェイで豆包シリーズの全モデルを使用でき、200万トークンの無料枠を利用できます。さらに、ゲートウェイのアクセスキーで新たに豆包大規模言語モデルを使用した場合、無料枠を500万トークンに増額申請することも可能です。

微信截图_20250425140519.png

エッジ大規模言語モデルゲートウェイは、1つのAPIインターフェースを通じて、複数のLLMプロバイダーのモデルとエージェントへのアクセスをユーザーに提供します。世界中に展開されたエッジコンピューティングノードを活用して、ニアリーコールを実現し、モデルへのアクセス速度を向上させ、エンドユーザーにより迅速かつ信頼性の高いAIサービスエクスペリエンスを提供します。ユーザーは2つの方法で豆包1.5・深層思考モデルを呼び出すことができます。1つは、エッジ大規模言語モデルゲートウェイにプリセットされたモデルを直接使用する方法、もう1つは、サードパーティのモデルプラットフォームのキーをエッジ大規模言語モデルゲートウェイに登録し、ゲートウェイ経由でキーを使用してモデルを呼び出す方法です。

豆包1.5・深層思考モデルはMoEアーキテクチャを採用し、総パラメーター数は200B、活性化パラメーター数はわずか20Bです。これにより、トレーニングと推論のコストにおいて顕著な利点があります。このモデルは効率的なアルゴリズムに基づいており、非常に高い同時実行処理能力を提供し、同時に20ミリ秒という極めて低いレイテンシを実現します。さらに、深層思考とビジュアル理解の複合能力により、豆包1.5・深層思考モデルは問題解決をより効率的に行うことができます。

エッジ大規模言語モデルゲートウェイを使用して豆包1.5・深層思考モデルを呼び出すことで、ユーザーは高速な呼び出し、コスト管理、自動再試行、フェールオーバーなどの利点を享受できます。これらの機能は、サービス品質の向上だけでなく、運用コストの削減、サービスの継続性と信頼性の確保にも貢献します。

現在、火山エンジンエッジ大規模言語モデルゲートウェイは、100種類以上の主流大規模言語モデルとエージェントに対応しています。豆包1.5・深層思考モデルの普及を促進するため、エッジ大規模言語モデルゲートウェイでは特別キャンペーンを実施しています。ゲートウェイでアクセスキーを作成し、最新の豆包モデルを関連付けると、無料枠を500万トークンに増額申請できます。

火山エンジンのこの取り組みは、AI開発者にとって強力なツールを提供するだけでなく、AI技術の普及と応用を強力にサポートします。エッジ大規模言語モデルゲートウェイを通じて、ユーザーは豆包1.5・深層思考モデルをより簡単に使用でき、AI技術のさらなる分野への応用と発展を促進します。