近日,來自哥倫比亞大學和馬里蘭大學的研究團隊發佈了一項新研究,揭示了擁有互聯網訪問能力的 AI Agent在安全性方面存在嚴重漏洞。

這項研究顯示,攻擊者可以利用簡單的操控手段,輕易地誘騙這些 AI 系統泄露用戶的私人信息、下載惡意文件,甚至向用戶的聯繫人發送詐騙郵件。這些攻擊不需要任何專業的 AI 或編程知識,令人震驚。

人工智能 機器人

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

研究團隊對多個知名的 AI Agent進行了測試,包括 Anthropic 公司的計算機助手、MultiOn Web Agent和 ChemCrow 研究助手。他們發現這些系統在安全性方面的防禦相當脆弱。研究者們詳細記錄了攻擊者如何通過四個階段的過程,將 AI Agent從可信網站引導至惡意網站,最終導致用戶敏感數據的泄露。

研究人員開發了一個全面的框架,對不同類型的攻擊進行分類,分析了攻擊的發起者(外部攻擊者或惡意用戶)、目標(數據盜取或Agent操控)、獲取訪問的途徑(操作環境、存儲或工具)以及所使用的策略(如越獄提示)等因素。在一項特別的測試中,研究者們創建了一個假網站,宣傳一款名爲 “Himmelblau KÖNIGSKÜHL Diplomat DK-75” 的 “AI 增強德國冰箱”。當 AI Agent訪問該網站時,它們遭遇了隱藏的越獄提示,結果在十次嘗試中,Agent毫不猶豫地泄露了包括信用卡號在內的機密信息,並從可疑來源下載了文件。

此外,研究還發現了郵件整合方面的嚴重漏洞。當用戶登錄郵箱服務時,攻擊者可以操控 AI Agent向聯繫人發送看似可信的釣魚郵件。這種情況下,即使是經驗豐富的用戶也難以識別這些詐騙信息的真實性。

儘管這些 AI 系統的安全隱患已被揭露,許多公司仍在加速推進商業化進程。ChemCrow 已經在 Hugging Face 上提供,Claude 計算機助手以 Python 腳本形式存在,而 MultiOn 則提供開發者 API。同時,OpenAI 已推出 ChatGPT Operator,谷歌也在研發 Project Mariner。研究團隊呼籲加強安全措施,包括實施嚴格的訪問控制、URL 驗證和下載的用戶確認等,以保障用戶數據安全。

劃重點:

💻 研究表明,AI Agent可以被簡單操控,導致用戶數據泄露和惡意下載。  

📧 攻擊者可通過 AI Agent發送釣魚郵件,增加詐騙風險。  

🔒 專家呼籲加強 AI 系統的安全性,建議實施多種防護措施。