近日,英偉達(Nvidia)悄然推出了其全新AI服務——AI Foundry,這一舉措可能會引發企業定製AI模型的熱潮。此服務旨在幫助企業開發和部署符合自身需求的定製大語言模型,以更高的準確度和控制力來應對市場的快速變化。
AI Foundry結合了英偉達的硬件、軟件工具和專業知識,幫助公司開發出針對具體業務需求的定製化開源模型,例如Meta剛剛發佈的Llama3.1。隨着企業越來越希望利用生成式AI技術,同時又希望掌控自己的數據和應用,AI Foundry的推出正逢其時。
英偉達表示,通過對這些開源模型的定製,能夠顯著提高模型的表現。例如,定製後的模型準確度能提高近10個百分點。AI Foundry不僅提供了大量預訓練模型,還通過英偉達的DGX Cloud和NeMo工具包提供高性能計算資源和模型定製評估。此外,英偉達的AI專家團隊還將提供專業指導。
除了AI Foundry,英偉達還推出了NIM(Nvidia Inference Microservices),這是一種將定製模型打包成容器化、API可訪問格式的服務,簡化了模型的部署過程。NIM標誌着英偉達在AI模型部署方面的一項重大突破,展示了公司在多年研究和開發上的積累。
此次發佈的時機也很微妙,正值Meta發佈Llama3.1之際,同時也在AI安全性和治理問題日益引發關注的背景下。通過提供一個讓企業能夠創建和控制自己AI模型的服務,英偉達可能在滿足企業對高級AI需求的同時,規避了使用公共通用模型的風險。
然而,定製AI模型的廣泛部署也可能帶來一些挑戰,如AI能力在各行業間的碎片化以及保持一致的AI安全和倫理標準的困難。隨着AI行業競爭的加劇,英偉達的AI Foundry將成爲其在企業AI市場未來佈局的重要一步。
官方博客:https://blogs.nvidia.com/blog/ai-foundry-enterprise-generative-ai/
### 劃重點:
📊 **定製化提升準確度**:英偉達AI Foundry能顯著提高AI模型的準確度,定製後準確度提升近10%。
🛠️ **全新部署方式**:NIM服務將定製模型打包成API可訪問的容器化格式,簡化部署過程。
📅 **發佈時機特殊**:此次發佈正值Meta Llama3.1發佈之際,旨在滿足企業對高級AI模型的定製需求。