近期,北卡羅來納州立大學的研究人員提出了一種新方法,通過捕獲計算機發出的電磁信號來提取人工智能(AI)模型,準確率高達99% 以上。這一發現可能對商業 AI 發展構成挑戰,尤其是在 OpenAI、Anthropic 和谷歌等公司已經大量投資於專有模型的背景下。不過,專家們指出,這種技術在現實世界中的實際影響以及防禦措施仍不明確。

開發者 程序員 黑客 代碼 漏洞

CUDO Compute 的首席營銷官拉斯・奈曼(Lars Nyman)表示,AI 盜竊不僅僅是模型本身的損失,還可能引發一系列連鎖反應,如競爭對手利用多年的研發成果、監管機構調查知識產權的管理失當,甚至客戶因發現自身的 AI “獨特性” 並不獨特而提起訴訟。這種情況可能促使行業內推動標準化審計,就像 SOC2或 ISO 認證一樣,以此區分安全的企業與不負責任的企業。

近年來,針對 AI 模型的黑客攻擊威脅日益嚴重。商業界對 AI 的依賴使得這一問題更加突出。最近的報告顯示,數千個惡意文件被上傳至 Hugging Face,這一 AI 工具的關鍵存儲庫,嚴重危害了零售、物流和金融等行業使用的模型。國家安全專家警告說,薄弱的安全措施可能導致專有系統面臨盜竊風險,正如 OpenAI 的安全漏洞所示。被盜的 AI 模型可能被逆向工程或出售,這將削弱企業的投資,並破壞信任,允許競爭對手迅速趕超。

北卡羅來納州立大學的研究團隊通過在谷歌邊緣張量處理單元(TPU)附近放置探頭,分析其信號,從而揭示了模型結構的關鍵信息。該攻擊方式並不需要直接訪問系統,這使得 AI 知識產權面臨嚴重安全風險。研究合著者、電子與計算機工程副教授艾丁・艾蘇(Aydin Aysu)強調,構建一個 AI 模型不僅費用高昂且需要大量計算資源,因此防止模型被盜取是至關重要的。

隨着 AI 技術的應用日益廣泛,企業需要重新審視某些用於 AI 處理的設備。技術顧問蘇里爾・阿雷拉諾(Suriel Arellano)認爲,企業可能會轉向更集中和安全的計算,或者考慮其他更不易被盜的替代技術。儘管盜竊的風險存在,AI 也在加強網絡安全,通過自動化威脅檢測和數據分析提升響應效率,助力識別潛在威脅並學習應對新攻擊。

劃重點:  

🔍 研究人員展示了通過捕獲電磁信號提取 AI 模型的方法,準確率超過99%。  

💼 AI 模型盜竊可能導致競爭對手利用企業多年研發成果,影響商業安全。  

🔒 企業需加強 AI 模型的安全防護,以應對不斷增加的黑客攻擊威脅。