近日,騰訊雲TI平臺宣佈正式上架備受矚目的DeepSeek系列模型,包括參數量達到671B的“滿血版”V3和R1原版模型,以及基於DeepSeek-R1蒸餾得到的系列模型,參數規模從70B到1.5B不等。這一舉措爲開發者提供了強大的AI工具支持,進一步推動了大模型技術的普及和應用。

DeepSeek系列模型以其卓越的性能在全球範圍內獲得了廣泛關注。其中,DeepSeek-R1在發佈時即開源,並在後訓練階段大規模使用了強化學習技術,即使在僅有極少標註數據的情況下,也能極大提升模型推理能力。在數學、代碼、自然語言推理等任務上,DeepSeek-R1的性能與OpenAI的GPT-4正式版不相上下。此外,DeepSeek-R1遵循MIT License,允許用戶通過蒸餾技術訓練其他模型,其蒸餾模型DeepSeek-R1-Distill在參數規模更小、推理成本更低的情況下,依然在基準測試中表現出色。

微信截圖_20250204143205.png

騰訊雲TI平臺不僅全面支持DeepSeek系列模型的一鍵部署,還限時開放了R1模型的免費在線體驗,爲開發者提供了零門檻的開箱體驗。用戶可以在“TI平臺-大模型廣場”中點擊DeepSeek系列模型卡片,瞭解模型信息,並進行在線體驗和一鍵部署。此外,TI平臺還提供了模型服務管理、監控運營、資源伸縮等企業級能力,幫助企業和開發者將DeepSeek模型高效、穩定地接入實際業務中。

爲了滿足不同用戶的需求,TI平臺提供了多種計費模式,包括按量計費和包年包月。對於需要短時體驗的用戶,可以直接從TI平臺購買算力並選用按量計費模式;而對於已購買CVM機器或需要長時間體驗的用戶,則推薦使用自有的CVM機器作爲推理算力。在算力配置方面,“滿血版”DeepSeek-R1推薦使用騰訊雲上的2臺8卡HCCPNV6機型進行服務部署,以獲得穩定業務體驗;而蒸餾後的DeepSeek-R1-Distill-Qwen-1.5B模型則可以單張中端GPU卡進行部署。開發者可以根據業務複雜度選擇合適的模型進行測試,並通過調用API的方式將其接入AI應用。

騰訊雲TI平臺的這一新動作,不僅爲開發者提供了強大的AI工具支持,也爲大模型技術的普及和應用提供了有力的推動。通過免費體驗和一鍵部署功能,TI平臺降低了開發者使用大模型的門檻,使其能夠更快速地將AI技術應用於實際業務中,進一步提升了AI技術的實用性和可及性。