OpenAI はこのたび正式に GPT-5-Codex-Mini をリリースしました。これは開発者向けに設計された高コストパフォーマンスなプログラミングモデルで、9月にリリースされた GPT-5-Codex の後、さらにスマートプログラミングの応用範囲を広げています。
GPT-5-Codex は GPT-5 アーキテクチャに基づいており、コードの推論と生成能力を向上させることに注力しています。リアルなソフトウェアエンジニアリングタスクにおいて、新規プロジェクトの作成、機能拡張、テストコードの作成、大規模なコードリファクタリングなどの複雑な操作を実行できます。また、SWE-bench Verified ベンチマークテストで74.5%の高い点数を獲得し、以前の GPT-5High(72.8%)を上回り、顕著なパフォーマンス上の優位性を示しています。

今回のリリースされた GPT-5-Codex-Mini は、パフォーマンスとコストのバランスを取った「コンパクト版」です。開発者はオリジナルバージョンよりも4倍多くの呼び出し枠を取得でき、モデルのパフォーマンスはわずかに犠牲になります。テストデータによると、GPT-5-Codex-Mini の得点は71.3%であり、高い正確性を維持しながらも使用のハードルを大幅に下げています。
OpenAI は、開発者が中程度から低めの複雑度のタスクを処理する場合や、呼び出し枠の上限に近づいたときには、GPT-5-Codex-Mini を優先的に選ぶことをお勧めしています。注目すべきは、呼び出し量が枠の90%に達したとき、システムが自動的にミニバージョンへの切り替えを推奨することです。これにより、プロジェクトの進行が制限されることなく保証されます。
現在、GPT-5-Codex-Mini はCLI および IDE 拡張をサポートしており、API インターフェースも近日中に公開される予定です。同時に、GPU 効率の向上により、OpenAI はChatGPT Plus、Business および Edu ユーザーに対して呼び出し上限を50%向上させました。Pro および Enterprise ユーザーは、優先的な速度とリソース配分を享受します。
また、OpenAI チームは Codex の下部構造を全面的に最適化し、以前のサーバーのトラフィックとルーティング負荷によって引き起こされていたパフォーマンスの変動問題を解決しました。これにより、開発者はピークタイムでも安定した一貫した呼び出し体験を得ることができます。
GPT-5-Codex-Mini の登場により、開発者はより柔軟なモデル選択ができるだけでなく、スマートプログラミングエコシステムにも新たなエネルギーを注入しています。より低いコストで効率的な開発を目指すチームにとって、このアップグレードは非常に魅力的な選択肢となっています。
