OpenAI は、初めてオープンな重みを持つモデルである gpt-oss を発表しました。これは、GPT-2 以来の重要なリリースです。この新しいモデルの登場により、開発者や企業は自らの条件で OpenAI のモデルを実行・調整・デプロイすることが可能となり、本格的な AI アプリケーションの自主制御が実現されました。ユーザーは今や、単一の企業用 GPU 上で gpt-oss-120b を実行したり、ローカルで gpt-oss-20b を動作させたりできるようになりました。これは AI 技術のさらなる普及と発展を示しています。

image.png

AI が技術スタックの中心となる中、マイクロソフトは、開発者が AI を使うだけでなく、AI と協力して創作を行うことを支援する包括的な AI アプリケーションおよびインテリジェントエージェント工場の構築に取り組んでいます。Azure AI Foundry は、インテリジェントエージェントの構築、微調整、デプロイに強力なサポートを提供する統一プラットフォームであり、Foundry Local はオープンソースモデルをエッジデバイスに導入し、数十億ものデバイス上で柔軟なローカル推論が可能になります。

gpt-oss-120b および gpt-oss-20b という2つのモデルのリリースにより、ユーザーはパフォーマンス、使いやすさ、デプロイの柔軟性において新たな選択肢を得ました。gpt-oss-120b は1200億個のパラメータを持ち、優れた推論能力を持ち、複雑なタスクを効率的に処理できます。一方、gpt-oss-20b はツールの使用や自律的なタスクに最適化されており、さまざまな Windows ハードウェアで使用可能で、特に帯域幅が制限された環境での使用に適しています。

image.png

Azure AI Foundry を通じて、開発者は簡単に推論エンドポイントを作成し、自身のデータを使ってモデルを微調整し、高い信頼性とセキュリティでデプロイすることができます。さらに、Foundry Local は個人用コンピューターでのローカル推論をサポートし、データのプライバシーやコントロールをより向上させます。

今回のリリースにより、開発者はモデルを深く理解しカスタマイズすることが可能となり、企業のリーダーには柔軟性とコントロールが提供されます。gpt-oss のオープン性により、ブラックボックス操作がなくなり、ユーザーが必要に応じて調整できるため、AI アプリケーションのコンプライアンスと効率性を確保できます。

注目ポイント:

🌟 gpt-oss モデルのリリースにより、開発者や企業は AI を自前で実行・調整する能力を得ました。

💻 gpt-oss-120b と gpt-oss-20b は優れた性能を持ち、さまざまなシナリオに適しています。

🔒 Azure AI Foundry と Foundry Local は安全で柔軟なデプロイオプションを提供し、データのプライバシーを保護します。