谷歌推出的基於 Gemini 的 AI 編程工具 “Antigravity” 在上線24小時內便被發現存在嚴重安全漏洞。安全研究員亞倫・波特諾(Aaron Portnoy)發現,通過修改 Antigravity 的配置設置,他可以讓 AI 執行惡意代碼,從而在用戶的計算機上創建一個 “後門”。這使得他能夠潛在地安裝惡意軟件,進行數據竊取或甚至發動勒索攻擊。這個漏洞對 Windows 和 Mac 系統都有效,攻擊者只需說服用戶運行一次他的代碼,便能獲得訪問權限。

波特諾指出,Antigravity 的漏洞顯示出企業在推出 AI 產品時未能充分測試其安全性。他表示,“AI 系統在發佈時帶有巨大的信任假設,而幾乎沒有經過安全加固的邊界。” 雖然他將漏洞報告給了谷歌,但截至目前仍未有修復補丁可用。
谷歌承認已經發現 Antigravity 代碼編輯器中的其他兩個漏洞,黑客也可以利用這些漏洞訪問用戶計算機上的文件。網絡安全研究人員已經開始公開發布關於 Antigravity 的多個漏洞的發現,這讓人質疑谷歌的安全團隊是否在產品發佈時準備充分。
此外,網絡安全專家指出,AI 編程工具通常很脆弱,往往基於過時的技術,且設計上存在安全隱患。由於這些工具被賦予廣泛訪問數據的權限,因此它們成爲黑客的目標。在技術飛速發展的背景下,越來越多的 AI 編程工具面臨相似的安全風險。
波特諾呼籲谷歌在 Antigravity 運行用戶代碼時,至少應該發出額外的警告,以保障用戶安全。最終,AI 工具在實現自動化的同時,必須確保有足夠的安全防護,以免被惡意利用。
劃重點:
1. 🔒 谷歌新推出的 AI 工具 Antigravity 在上線後24小時內被曝出重大安全漏洞。
2. ⚠️ 安全研究員通過修改設置可以在用戶電腦上安裝惡意軟件,攻擊方式簡單。
3. 📊 專家指出 AI 工具存在普遍的安全隱患,急需加強防護措施。
