人工知能スタートアップのAnthropicは、今朝、人気のあるClaude Sonnet4言語モデル(LLM)が最大100万のコンテキストトークンをサポートするようになったと発表しました。このアップデートにより、AnthropicはGoogle Geminiに続いて、これほどの長いコンテキストをサポートできる主要なモデルサプライヤーとなったことになります。
以前、Claude Sonnet4 APIのコンテキスト制限は20万トークンでしたが、今回の拡張により5倍に引き上げられ、開発者は1回のリクエストで75,000行以上のコードを含む全体のコードベースを提出できます。この変更は、複雑なタスクや大規模なデータを処理する際の開発者にとって非常に便利になります。
現在、Claude Sonnet4の長文コンテキストサポートは、AnthropicのAPIおよびAmazon Bedrockで公開テスト段階に入り、Google Cloud Vertex AIも近く同様の機能をリリース予定です。ただし、現在の長文コンテキストサポートはTier4レベルの開発者にのみ提供されており、カスタムのレートリミットが設定されています。Anthropicは、今後数週間以内にこの機能をより多くの開発者に解放していく予定です。
コンテキストウィンドウの拡大に伴い、必然的に計算需要が高まります。Anthropicは新しい価格戦略を導入しました。20万トークン以下のプロンプトについては、Sonnet4の料金は100万入力トークンあたり3ドル、100万出力トークンあたり15ドルです。一方、20万トークンを超えるプロンプトの場合、料金は100万入力トークンあたり6ドル、出力トークンあたり22.5ドルとなります。注目すべき点は、開発者が高速キャッシュやバッチ処理を使用することでコストを効果的に抑えることができ、バッチ処理は1Mのコンテキストウィンドウの価格に対して最大50%の割引を提供することです。
最近、Redditでの質疑応答セッションで、OpenAIのリーダーシップ層は長文コンテキストウィンドウのサポート計画について議論しました。OpenAIのCEOであるSam Altmanは、まだユーザーが長文コンテキストに強いニーズを持っているとは見られないが、十分な関心があればこの機能をサポートすることを検討するだろうと述べました。OpenAIチームのMichelle Pokrassは、GPT-5で最大100万トークンのコンテキストサポートを提供することを計画していたが、GPUの需要が大きかったため実現できなかったと述べました。
Anthropicが1Mのコンテキストサポートを導入したことで、その長文コンテキスト機能ではGoogle Geminiと直接競争することとなり、これはOpenAIにとって製品ロードマップの再評価を迫るものです。