站長之家(ChinaZ.com) 6月18日 消息:DeepSeek 最近宣佈發佈了一款名爲 DeepSeek-Coder-V2的開源模型,這一模型在代碼和數學能力方面超越了 GPT-4-Turbo,並在多語言支持和上下文處理長度上有了顯著擴展。基於 DeepSeek-V2的模型結構,DeepSeek-Coder-V2採用專家混合(MoE)架構,專門設計用於增強代碼和數學推理能力。

DeepSeek-Coder-V2的性能在全球範圍內名列前茅,其代碼生成和數學算術能力尤爲突出。這一模型及其相關代碼、論文已全部開源,供免費商用使用,無需申請。模型提供兩種規模:236B 參數和16B 參數,以滿足不同的應用需求。

image.png

在多語言支持方面,DeepSeek-Coder-V2能夠支持的編程語言從86種擴展到338種,適應更多樣化的開發需求。同時,它支持的上下文長度從16K擴展到128K,能夠處理更長的輸入內容。DeepSeek-Coder-V2還提供 API 服務,支持32K上下文,價格與 DeepSeek-V2一致。

在標準的基準測試中,DeepSeek-Coder-V2在代碼生成、代碼補全、代碼修復和數學推理等方面優於一些閉源模型。用戶可以下載不同版本的 DeepSeek-Coder-V2模型,包括基礎版和指令版,以及不同參數規模的版本。

DeepSeek 還提供了在線體驗平臺和 GitHub 鏈接,以及技術報告,方便用戶進一步瞭解和使用 DeepSeek-Coder-V2。這一模型的發佈不僅爲開源社區帶來了強大的代碼和數學處理能力,也有助於推動相關技術的發展和應用。

項目地址:https://top.aibase.com/tool/deepseek-coder-v2

在線體驗:https://chat.deepseek.com/sign_in