人工知能スタートアップのAnthropicは、注目を集めるClaude Sonnet4LLMモデルが現在、最大で100万のコンテキストトークンをサポートするようになったと発表しました。以前はこのモデルのAPIは20万のトークンのみをサポートしていました。今回の拡張により、開発者は1回のリクエストで75,000行を超えるコードを送信できるようになり、使用の柔軟性と利便性が大幅に向上しました。
現在、拡張された長文コンテキストサポートは、AnthropicのAPIおよびAmazon Bedrockで公開テストを開始しており、Google Cloud Vertex AIも近くこの機能をリリースする予定です。しかし、この長文コンテキスト機能は現在、Tier4の開発者に限られ、カスタムのレートリミットに従う必要があります。Anthropicは今後数週間以内にこの機能をより多くの開発者に開放する予定です。
より大きなトークンウィンドウに対する計算能力の需要に対応するために、Anthropicは新しい料金プランも同時にリリースしました。20万トークン以下のプロンプトの場合、Sonnet4の料金は100万入力トークンあたり3ドル、100万出力トークンあたり15ドルです。20万トークンを超えるプロンプトの場合、100万入力トークンあたり6ドル、100万出力トークンあたり22.5ドルになります。開発者は、高速キャッシュやバッチ処理技術を使用してコストを削減でき、バッチ処理は1Mのコンテキストウィンドウの料金に対して50%の割引を提供します。
最近のReddit AMA(Ask Me Anything)イベントで、OpenAIの上級幹部は、自社モデルが長文コンテキストウィンドウをサポートする可能性について議論しました。OpenAIのCEOであるSam Altmanは、現在では長文コンテキストへの強いニーズは確認されていないものの、ユーザーの関心が十分であればサポートを追加することを検討すると述べました。計算能力の制約により、OpenAIチームは他の優先プロジェクトに焦点を当てたいと考えています。また、OpenAIチームメンバーのMichelle Pokrassは、GPT-5で100万トークンのコンテキストをサポートしたいと考えていたが、GPUの需要が大きすぎて実現できなかったと語りました。
Anthropicの1Mコンテキストサポートにより、Google Geminiとの直接的な競争を始めることになりました。これにより、OpenAIにも製品ロードマップの見直しを迫る状況となっています。
ポイント:
🆕 AnthropicのClaude Sonnet4モデルは最大100万のコンテキストトークンをサポートし、開発者の柔軟性を大幅に高めました。
💰 新しい料金プランが導入され、20万トークン未満と20万トークン以上のプロンプトごとに料金が異なります。開発者はバッチ処理によってコストを削減できます。
🤖 OpenAIは長文コンテキストの需要に関心を持ち、競争に対応するために製品ロードマップを調整する可能性があります。