国产大模型领军者 DeepSeek 近日宣布重大调价,下调全系 API 输入缓存命中价格至首发价的1/10。这一举措标志着国产 AI 成本控制进入新阶段,力求通过极致性价比吸引更多开发者与企业接入。
核心降幅直击行业痛点
本次调价覆盖 V4-Pro 及 V4-Flash 全系列,其中 V4-Pro 缓存输入价格降至0.1元/百万 Tokens,叠加限时优惠后实付仅需0.025元。对比海外竞品,其缓存输入价格仅为 GPT-5.5Pro 的1/700,展现出极强的市场竞争力。
除了缓存命中场景,未命中场景及输出价格也同步下调至原价的1/4。这种定价策略精准瞄准了 RAG 知识库、智能客服及文档分析等高频调用场景,最高可为企业降低90% 以上的运营成本。

DeepSeek 能够实现大幅降价,得益于其自研的稀疏注意力架构。该技术支持160k 超长上下文处理,在提升长文本处理效率的同时,有效降低了底层的算力消耗与存储成本。
目前,DeepSeek 已深度适配华为云、阿里云等八大主流云平台。业内普遍认为,此举将重塑大模型行业定价体系,倒逼海外模型调整策略,加速 AI 应用从实验室走向大规模商业普惠。
