人工智能初创公司 Anthropic 近日宣布,其备受关注的 Claude Sonnet4LLM 模型现已扩展支持高达100万个上下文词元。此前,该模型的 API 仅支持20万个词元。此次扩展使得开发者可以在单个请求中传输超过75,000行的代码,极大提高了使用的灵活性和便利性。
目前,扩展后的长上下文支持已经在 Anthropic 的 API 和 Amazon Bedrock 上开始公开测试,Google Cloud Vertex AI 也将在不久后上线这一功能。然而,这一长上下文功能目前仅限于 Tier4的开发者使用,并且需要遵循自定义的速率限制。Anthropic 表示,未来几周内将会向更多开发者开放此功能。
为应对更大的词元窗口对计算能力的需求,Anthropic 同时推出了新的定价方案。对于20万个词元以下的提示,Sonnet4的费用为每百万个输入词元3美元,每百万个输出词元15美元。而对于超过20万个词元的提示,费用则为每百万个输入词元6美元,每百万个输出词元22.5美元。开发者还可以通过使用快速缓存和批处理技术来降低成本,其中批处理可为1M 上下文窗口的定价提供50% 的折扣。
在最近的一次 Reddit AMA 会议上,OpenAI 的高层讨论了为其模型支持长上下文窗口的可能性。OpenAI 的首席执行官 Sam Altman 表示,目前他们尚未发现用户对长上下文的强烈需求,但如果有足够的用户兴趣,他们会考虑增加支持。由于计算能力的限制,OpenAI 团队希望将重心放在其他优先项目上。而 OpenAI 团队成员 Michelle Pokrass 也提到,他们曾希望在 GPT-5中支持长达100万个词元的上下文,尤其是针对 API 的应用场景,但因 GPU 的需求量过大而未能实现。
Anthropic 的1M 上下文支持使其在长上下文功能方面与 Google Gemini 形成了直接竞争,这也给 OpenAI 带来了重新考虑其产品路线图的压力。
划重点:
🆕 Anthropic 的 Claude Sonnet4模型现支持高达100万个上下文词元,极大提升了开发灵活性。
💰 新定价方案出台,20万个词元以下与以上的费用分别有所不同,开发者可通过批处理降低成本。
🤖 OpenAI 对长上下文的需求表示关注,未来可能会调整产品路线以应对竞争。