根據 Gartner 最近的分析,到2027年,超過40% 的人工智能相關數據泄露將源於生成式人工智能(GenAI)的誤用。隨着 GenAI 技術的迅速普及,企業和組織在數據治理與安全措施的制定上面臨着嚴峻挑戰。尤其是在數據本地化的背景下,這一問題顯得尤爲突出,因爲這些技術對集中計算能力的需求很高。

開發者 黑客開發者 漏洞 泄露 安全

Gartner 的副總裁分析師 Joerg Fritsch 指出,組織在集成 GenAI 工具時,常常缺乏足夠的監督,導致意外的跨境數據轉移。他提到,“如果員工在使用 GenAI 工具時發送了敏感提示,而這些工具和 API 又託管在未知地點,便會帶來安全隱患。” 儘管這些工具可以用於經批准的商業應用,但其潛在的安全風險不容忽視。

在全球範圍內,缺乏一致的最佳實踐和數據治理標準也是 Gartner 所指出的關鍵挑戰。這種缺口導致市場的碎片化,迫使企業爲特定地區制定策略,從而影響了它們在全球有效利用 AI 產品和服務的能力。Fritsch 還提到,“管理數據流的複雜性以及由於本地化 AI 政策帶來的質量維護問題,可能會導致運營效率低下。”

爲了保護敏感數據和確保合規,企業需要在 AI 治理和安全方面進行投資,以應對這些風險。Gartner 預測,到2027年,全球將普遍要求 AI 治理,尤其是在主權 AI 法律和法規的框架下。未能及時整合必要治理模型的組織,將面臨競爭劣勢。

爲了降低與 AI 數據泄露相關的風險,Gartner 建議企業採取以下策略:首先,增強數據治理,包括遵守國際法規、監測意外的跨境數據轉移等;其次,成立治理委員會,以提高對 AI 部署和數據處理的透明度和監督力度;最後,加強數據安全,採用先進的技術,如加密和匿名化技術,以保護敏感信息。

企業還被鼓勵投資於與 AI 技術相關的信任、風險和安全管理(TRiSM)產品和能力。這包括 AI 治理、數據安全治理、提示過濾和紅 action,以及合成生成非結構化數據。Gartner 預測,到2026年,實施 AI TRiSM 控制的企業將減少至少50% 的不準確信息,從而降低錯誤決策的風險。

劃重點:  

🔍 超過40% 的 AI 數據泄露將由生成式 AI 誤用引發。  

🛡️ 企業需加強數據治理,確保合規與安全。  

📈 投資 AI 相關的信任、風險和安全管理產品,能顯著減少錯誤信息的產生。