根據最近的一項調查,62% 的網絡安全負責人表示,在過去一年中,他們的員工遭遇了利用人工智能(AI)進行的攻擊。這些攻擊包括了提示注入攻擊和僞造音頻或視頻內容。調查顯示,深度僞造音頻電話攻擊是最常見的攻擊方式,有44% 的企業報告至少發生過一次此類事件,其中6% 的事件導致了業務中斷、財務損失或知識產權損失。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
在使用音頻篩查服務的情況下,這種損失的比例降至2%。視頻深度僞造的情況稍微少一些,有36% 的企業遭遇過,但其中5% 的事件同樣造成了嚴重問題。
來自安全公司 Sophos 的全球首席信息安全官切斯特・維斯涅夫斯基(Chester Wisniewski)指出,深度僞造音頻的技術已經變得非常成熟且成本低廉。他提到:“現在的音頻僞造可以實時生成。如果是你配偶的聲音,他們可能會察覺,但如果只是偶爾交流的同事,幾乎可以毫無障礙地實時僞造,這帶來了很大的挑戰。”
他認爲,音頻深度僞造的報告數字可能被低估了,但視頻僞造的比例高於他的預期。他指出,實時僞造特定個體的視頻非常昂貴,可能需要數百萬美元的成本。不過,Sophos 已經看到一些詐騙者在 WhatsApp 通話中短暫展示 CEO 或 CFO 的視頻深度僞造,隨後聲稱網絡連接出現問題,刪除視頻並轉爲文本溝通進行社交工程攻擊。
另外,使用普通視頻僞造來隱藏某人身份的案例更加常見。以北朝鮮爲例,該國通過人工智能僞造技術爲西方公司提供服務,賺取了數百萬美元,這種僞造技術即使對於專業人士來說也相當具有迷惑性。
此外,另一種上升的 AI 生成攻擊是提示注入攻擊,攻擊者將惡意指令嵌入 AI 系統處理的內容中,誘使其泄露敏感信息或濫用連接工具。這可能導致代碼執行,尤其是在集成允許的情況下。根據 Gartner 的調查,32% 的受訪者表示,他們的應用程序遭受過提示注入攻擊。
劃重點:
📞62% 的企業遭遇 AI 攻擊,其中44% 報告深度僞造音頻電話事件。
💻 實時音頻僞造技術成熟,給員工安全帶來新挑戰。
🔍 提示注入攻擊頻發,32% 的企業應用受到影響。
