2025年4月9日,在Google Cloud Next2025大會上,Google Cloud宣佈了一項重大合作計劃,將其分佈式雲服務Google Distributed Cloud(GDC)與Gemini人工智能模型和NVIDIA的Blackwell架構相結合,爲企業提供強大的本地化AI解決方案。這一合作旨在滿足對數據主權和安全性有嚴格需求的行業,推動“代理AI”(Agentic AI)技術在本地環境中的應用。

最新消息,Google Distributed Cloud將支持Gemini模型在企業自有數據中心運行。這一舉措通過與NVIDIA的合作得以實現,具體利用NVIDIA最新推出的Blackwell GPU系統,提供高性能計算能力。Dell作爲關鍵合作伙伴,將爲這一方案提供硬件支持,確保企業在本地部署時既能享受公共雲的靈活性,又能保持對數據的完全控制。值得注意的是,該解決方案不僅適用於聯網環境,還支持完全隔離的“空氣隔離”(air-gapped)場景,特別適合政府機構、高度監管行業以及對延遲和數據駐留有特殊要求的企業。

QQ20250410-093156.png

此次合作的一個亮點是集成了NVIDIA的機密計算技術(Confidential Computing),確保企業在使用Gemini模型處理敏感數據時,數據和提示詞(prompts)能夠得到端到端保護,即便是雲服務提供商也無法訪問。這種安全性與性能的結合,被認爲是解鎖本地AI潛力的關鍵一步。Google Cloud基礎設施與解決方案副總裁兼總經理Sachin Gupta表示:“通過將Gemini模型與NVIDIA Blackwell的突破性性能和機密計算能力結合,我們爲企業提供了安全創新的可能,無需在性能或操作便捷性上妥協。”

此外,Google Distributed Cloud還計劃推出GKE Inference Gateway,這是一款與NVIDIA Triton Inference Server和NeMo Guardrails集成的工具,用於優化推理路由和負載均衡,幫助企業更高效地管理和擴展AI工作負載。這一功能預計將在2025年第三季度進入公共預覽階段,爲更多企業提供試用機會。

業界人士認爲,這一合作標誌着AI部署模式的重大轉變。長期以來,受限於雲端部署和安全顧慮,許多企業無法充分利用最先進的AI技術。而Google與NVIDIA的聯合解決方案,讓企業在本地運行復雜AI代理成爲可能,這些代理不僅能理解數據,還能進行推理、行動和自我優化。這一趨勢被視爲企業AI系統邁向“自校正”和“自改進”的重要一步。

Google Cloud與NVIDIA的合作不僅限於技術層面,還體現了雙方對推動AI普惠化的共同願景。通過將Gemini模型帶入本地環境,結合Blackwell架構的強大性能,這一方案有望爲金融、醫療、製造等行業帶來新的增長機遇,同時滿足嚴格的合規性要求。未來,隨着更多細節的披露和實際應用的落地,這一合作或將重塑企業AI的部署格局。