IBM 的研究表明,通過欺騙大型語言模型如 GPT-4,可以輕鬆生成惡意代碼或提供虛假安全建議。研究人員發現,只需要英語基礎知識和對模型訓練數據的一些背景知識就能輕鬆欺騙 AI 聊天機器人。不同的 AI 模型對欺騙的敏感性有所差異,其中 GPT-3.5 和 GPT-4 更容易被欺騙。這些新發現的漏洞對於大型語言模型的威脅程度是中等的,但如果黑客將這些模型釋放到互聯網上,聊天機器人可能被用來提供危險的安全建議或收集用戶的個人信息。