寒武紀今日宣佈,已基於 vLLM 推理框架完成對深度求索(DeepSeek)最新開源模型
針對
硬件層面,寒武紀深度挖掘了 MLU 的訪存與排序加速特性,有效應對
行業分析指出,DeepSeek-V4憑藉百萬字(1M)超長上下文及頂尖的邏輯推理性能,對底層算力架構提出了嚴苛要求。寒武紀在模型發佈首日的敏捷適配,不僅展示了國產算力平臺對超大規模、複雜結構模型的承載能力,也預示着國產 AI 產業鏈在軟硬協同層面已進入成熟期,爲大模型應用普惠提供了高效的算力底座支持。

寒武紀今日宣佈,已基於 vLLM 推理框架完成對深度求索(DeepSeek)最新開源模型
針對
硬件層面,寒武紀深度挖掘了 MLU 的訪存與排序加速特性,有效應對
行業分析指出,DeepSeek-V4憑藉百萬字(1M)超長上下文及頂尖的邏輯推理性能,對底層算力架構提出了嚴苛要求。寒武紀在模型發佈首日的敏捷適配,不僅展示了國產算力平臺對超大規模、複雜結構模型的承載能力,也預示着國產 AI 產業鏈在軟硬協同層面已進入成熟期,爲大模型應用普惠提供了高效的算力底座支持。
騰訊雲在TokenHub平臺推出DeepSeek-V4預覽版API,支持百萬級上下文長度,顯著提升自然語言處理能力。定價與DeepSeek官方一致,提供高性價比服務,並在國際站新加坡節點同步上架,覆蓋全球用戶。
寒武紀公司宣佈,已成功完成對深度求索公司開源AI模型DeepSeek-V4的Day 0適配,實現發佈當天即穩定運行。通過自研融合算子庫Torch-MLU-Ops,對模型中的Compressor、mHC等模塊進行鍼對性加速,大幅提升推理效率。同時採用vLLM推理框架,爲用戶帶來更高效的人工智能體驗。
DeepSeek於4月24日發佈新一代大模型DeepSeek-V4,性能比肩頂級閉源模型,成爲開源AI里程碑。它支持100萬tokens超長上下文,適用於長文檔分析、代碼生成和多輪任務。同時推出輕量版Flash和標準版,分別滿足快速迭代與深度應用需求。
深度求索(DeepSeek)發佈DeepSeek-V4預覽版並開源,實現1M超長上下文標準化,在Agent協作、知識及推理性能上領先國內及開源領域。雙版本佈局:Pro版(1.6T參數,激活49B)性能對標頂級閉源模型,Flash版兼顧效率,滿足不同應用需求。
寒武紀董事長陳天石在2025年度業績說明會上回應投資者,針對互聯網大廠自研芯片的競爭壓力,強調公司產品採用“通用型”設計,具備更強的普適性,能應對多樣化AI技術。他指出,大廠芯片多圍繞主營業務提供垂直解決方案,而寒武紀的通用架構更靈活,適應不同場景需求。