IBM 的研究表明,人們可以輕鬆欺騙大型語言模型如 GPT-4 生成惡意代碼或提供虛假的安全建議。研究人員發現,黑客只需一些英語基礎知識和對模型訓練數據的瞭解就能輕鬆欺騙 AI 聊天機器人,讓其提供虛假信息或生成惡意代碼。研究還發現,不同的 AI 模型對欺騙的敏感度不同,GPT-3.5 和 GPT-4 更容易被欺騙,而 Google 的 Bard 和 Hugging Face 模型則較為難以欺騙。這項研究揭示了大型語言模型的安全漏洞,黑客可能利用這些漏洞來獲取用戶的個人信息或提供危險的安全建議。