隨着人工智能技術的迅猛發展,許多公司紛紛推出各自的 “AI 代理” 系統,這些代理能夠自主與環境互動,完成無需人類干預的任務。微軟和 Anthropic 等公司已率先推出了自己的 AI 代理,而行業領導者 OpenAI 卻遲遲未能發佈自己的版本,這背後的原因令人深思。

ChatGPT (4)OpenAI 人工智能

據《The Information》報道,OpenAI 的推遲與 “提示注入” 攻擊有關。這種攻擊方式可以誘使 AI 模型接受惡意方的指令。例如,當用戶指派 AI 代理在線搜索和購買物品時,AI 可能無意中訪問一個惡意網站,該網站可能會指示它忘記先前的指令,甚至登錄用戶的郵箱,竊取信用卡信息。這不僅會給用戶帶來災難性後果,也會嚴重損害 OpenAI 的聲譽。

由於 AI 代理具有自主操作電腦的能力,因此它們面臨着更高的安全風險。如果這些代理被黑客入侵,它們可能會對用戶的文件和數據造成更大的損害。OpenAI 的一位員工對此表示,雖然任何大型語言模型(LLM)都有被攻擊的潛在風險,但 AI 代理的自主能力加劇了這一風險。

目前,提示注入的風險已在其他平臺上得到充分證實。去年,一位安全研究人員就演示了微軟的 C o p i l o t AI 如何輕易地被操控,泄露組織的敏感數據,包括電子郵件和銀行交易記錄。此外,該研究人員還成功地操縱了 C o p i l o t,令其以其他員工的風格撰寫郵件。

OpenAI 自身的 ChatGPT 也曾遭遇提示注入的攻擊,一名研究人員通過上傳第三方文件(如 Word 文檔)成功植入虛假的 “記憶”。在這種背景下,OpenAI 的員工對競爭對手 Anthropic 在發佈 AI 代理時的 “放任態度” 表示驚訝。Anthropic 僅建議開發者 “採取措施將 Claude 與敏感數據隔離”,並沒有採取更爲嚴謹的安全措施。

據報道,OpenAI 可能會在本月推出其代理軟件。然而,人們不禁要問,開發團隊所爭取到的時間是否足以爲其產品建立更強的安全防護。

劃重點:

🌐 OpenAI 因擔憂 “提示注入” 攻擊而未推出 AI 代理,潛在風險巨大。  

💻 其他公司如微軟和 Anthropic 已推出 AI 代理,但安全隱患仍然嚴重。  

🔒 OpenAI 正在努力增強其產品的安全性,以防止潛在的數據泄露。