大模型領域再次迎來重磅更新。國產 AI 領軍者 DeepSeek 今日正式發佈了其新一代旗艦模型 DeepSeek V4。本次發佈最大的亮點在於模型的細分化策略,通過 Flash 與 Pro 兩個版本,精準覆蓋了從高頻輕量化應用到複雜推理任務的不同需求,並再次以極具競爭力的價格重塑了 AI 商業化定價基準。
模型矩陣:Flash 與 Pro 的差異化定位
DeepSeek V4將原有的 deepseek-chat 與 deepseek-reasoner 模型進行了整合與升級,正式劃分爲兩個版本:
DeepSeek-V4-Flash:主打極致性價比與高吞吐效率,適合需要快速響應的通用對話及基礎文本任務。
DeepSeek-V4-Pro:針對複雜邏輯、深度思考任務及高性能算力場景進行優化,具備更強的推理與處理能力。
兩款模型均支持思考模式(除特定場景外)、Json 輸出、Tool Calls 以及對話前綴續寫(Beta),並支持高達1M 的上下文窗口與最大384K 的輸出長度,爲複雜工程落地提供了堅實基礎。

價格體系:極致透明,階梯化計費
此次 DeepSeek 公佈的定價邏輯清晰,通過緩存機制大幅降低了企業長期調用的邊際成本。以下爲各模型的具體計費標準(單位:元/百萬 Tokens):
| 模型名稱 | 輸入(緩存命中) | 輸入(緩存未命中) | 輸出 |
| DeepSeek-V4-Flash | 0.2元 | 1元 | 2元 |
| DeepSeek-V4-Pro | 1元 | 12元 | 24元 |
注:扣費優先使用贈送餘額,隨後從充值餘額中抵扣。
行業分析:爲何這一價格具有里程碑意義?
從定價邏輯可以看出,DeepSeek 正在通過“緩存命中”與“未命中”的顯著價格差,鼓勵開發者通過緩存優化來降低算力損耗,從而實現業務成本的精細化控制。
對於開發者而言,Flash 版本1元/百萬 Token(緩存未命中) 的價格,極大地降低了接入頂尖 MoE 模型架構的准入門檻。同時,Pro 版本針對複雜推理任務的定價,也爲企業構建知識庫問答、自動化代理(Agent)等高階應用提供了兼顧性能與成本的國產方案。
關於兼容性的重要提示
官方特別提醒:原有的 deepseek-chat 與 deepseek-reasoner 模型名將於後續正式棄用。爲了保障業務平穩過渡,開發者現已可直接調用 deepseek-v4-flash(對應非思考模式)與 deepseek-v4-pro(對應思考模式)。
有關模型詳細接口信息及遷移指南,開發者可訪問
