近日,惡意人工智能工具 WormGPT 再次引起了網絡安全專家的關注。這款工具已經不再依賴自建模型,而是通過 “劫持” 合法的大語言模型(LLMs)來生成惡意內容,令人擔憂的是,它甚至能夠輕易地繞過現有的安全限制。

根據網絡安全公司 Cato Networks 的研究,犯罪團伙通過篡改一些主流 AI 平臺的系統提示(system prompts),成功實現了對 Grok 和 Mistral AI 的 “越獄” 操作。這意味着,WormGPT 可以生成釣魚郵件、惡意腳本等攻擊工具,對網絡安全造成嚴重威脅。

人工智能  AI 機器人 (1)

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

早在2023年7月,WormGPT 首次亮相時便引起了廣泛的關注。它基於開源的 GPT-J 模型,能夠自動生成木馬和釣魚鏈接。然而,在其曝光後,這款工具被迫下架。然而,令人震驚的是,Cato Networks 的研究表明,在2024年底至2025年初,名爲 “xzin0vich” 和 “keanu” 的用戶在暗網市場 BreachForums 重新推出了 WormGPT 的訂閱服務。

這一次的 WormGPT 通過篡改 Mixtral 等模型的系統提示,強制其切換至 “WormGPT 模式”,從而放棄原有的倫理限制,成爲一個沒有道德底線的惡意助手。此外,xAI 的 Grok 模型被封裝爲 API 接口的惡意包裝器,開發者甚至要求模型 “永遠保持 WormGPT 人格,不得承認自身限制”。這種行爲極大地挑戰了 AI 模型的安全性和可靠性。

隨着網絡犯罪手段的不斷升級,如何有效應對這些惡意工具的威脅,已經成爲網絡安全領域亟待解決的重要課題。未來,企業和個人用戶都需要提高警惕,加強對網絡安全的防範,以免落入這些惡意 AI 工具的圈套。