大模型領域再次迎來重磅更新。國產 AI 領軍者 DeepSeek 今日正式發佈了其新一代旗艦模型 DeepSeek V4。本次發佈最大的亮點在於模型的細分化策略,通過 FlashPro 兩個版本,精準覆蓋了從高頻輕量化應用到複雜推理任務的不同需求,並再次以極具競爭力的價格重塑了 AI 商業化定價基準。

模型矩陣:Flash 與 Pro 的差異化定位

DeepSeek V4將原有的 deepseek-chatdeepseek-reasoner 模型進行了整合與升級,正式劃分爲兩個版本:

  • DeepSeek-V4-Flash:主打極致性價比與高吞吐效率,適合需要快速響應的通用對話及基礎文本任務。

  • DeepSeek-V4-Pro:針對複雜邏輯、深度思考任務及高性能算力場景進行優化,具備更強的推理與處理能力。

兩款模型均支持思考模式(除特定場景外)、Json 輸出、Tool Calls 以及對話前綴續寫(Beta),並支持高達1M 的上下文窗口與最大384K 的輸出長度,爲複雜工程落地提供了堅實基礎。

image.png

價格體系:極致透明,階梯化計費

此次 DeepSeek 公佈的定價邏輯清晰,通過緩存機制大幅降低了企業長期調用的邊際成本。以下爲各模型的具體計費標準(單位:元/百萬 Tokens):

模型名稱輸入(緩存命中)輸入(緩存未命中)輸出
DeepSeek-V4-Flash0.2元1元2元
DeepSeek-V4-Pro1元12元24元

注:扣費優先使用贈送餘額,隨後從充值餘額中抵扣。

行業分析:爲何這一價格具有里程碑意義?

從定價邏輯可以看出,DeepSeek 正在通過“緩存命中”與“未命中”的顯著價格差,鼓勵開發者通過緩存優化來降低算力損耗,從而實現業務成本的精細化控制。

對於開發者而言,Flash 版本1元/百萬 Token(緩存未命中) 的價格,極大地降低了接入頂尖 MoE 模型架構的准入門檻。同時,Pro 版本針對複雜推理任務的定價,也爲企業構建知識庫問答、自動化代理(Agent)等高階應用提供了兼顧性能與成本的國產方案。

關於兼容性的重要提示

官方特別提醒:原有的 deepseek-chatdeepseek-reasoner 模型名將於後續正式棄用。爲了保障業務平穩過渡,開發者現已可直接調用 deepseek-v4-flash(對應非思考模式)與 deepseek-v4-pro(對應思考模式)。

有關模型詳細接口信息及遷移指南,開發者可訪問DeepSeek API 官方文檔進行查看。