近日,Cato Network 的安全研究人員在地下論壇上發現了兩種新版本的 WormGPT,這一惡意工具曾在2023年被廣泛關注並被認爲已被關閉。這兩個新版本分別名爲 keanu-WormGPT 和 xzin0vich-WormGPT,分別使用了商業 AI 模型 xAI 的 Grok 和 Mistral 的 Mixtral,目的在於幫助網絡犯罪分子製作網絡釣魚郵件、編寫惡意代碼以及規避合法 AI 平臺的安全措施。

黑客

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

最初的 WormGPT 是由一位名爲 “Last” 的葡萄牙黑客創建的,他利用開源模型 GPT-J 來繞過主流 AI 工具的倫理限制。儘管這一工具在2023年被關閉,但這並沒有結束其影響力,反而引發了一種新的趨勢。Cato Networks 的威脅情報研究員 Vitaly Simonovich 指出,“WormGPT” 現在已成爲一個可識別的品牌,代表着新一類不受限制的語言模型(LLMs)。

其中,keanu-WormGPT 是在2025年2月25日由一名用戶發佈的,該版本通過 Telegram 聊天機器人運行,基於 Grok 模型。研究人員利用越獄技術分析了 keanu-WormGPT 的操作方式,發現其系統提示被操控,以指示 Grok 忽略其倫理防護,從而生成網絡釣魚郵件和竊取憑證的腳本。

另一版本 xzin0vich-WormGPT 則是在2024年10月26日由用戶 “xzin0vich” 發佈,使用 Mistral AI 的 Mixtral 模型。與其 Grok 版本類似,該版本同樣通過 Telegram 操作,並對不道德或非法的請求作出反應。Cato 團隊使用相似的越獄方法獲取了系統提示,確認該版本基於 Mixtral 架構運行。

WormGPT 的重現突顯了惡意行爲者如何適應不斷髮展的 AI 技術。儘管合法平臺在強化倫理邊界,但網絡犯罪分子卻在利用相同的工具進行惡意利用。自從原版 WormGPT 關閉以來,其他模型如 FraudGPT、DarkGPT 和 EvilGPT 相繼出現。Simonovich 表示,“這些新版本的 WormGPT 並非定製模型,而是威脅行爲者巧妙地改造現有語言模型的結果。”

鑑於這些新發展,網絡安全專家強調了加強防禦策略的必要性。Cato Networks 建議採取多項最佳實踐,包括強化威脅檢測與響應、實施更嚴格的訪問控制以及增強安全意識和培訓。

劃重點:  

🌐 ** 新發現 **:Cato Network 發現兩種新版本的 WormGPT,助力網絡犯罪。  

🔒 ** 工具升級 **:新版本分別基於 Grok 和 Mixtral,能夠規避 AI 安全防護。  

🛡️ ** 安全建議 **:專家呼籲加強網絡安全防護措施,以應對不斷演化的威脅。