IBMの研究によると、人々はGPT - 4のような大型言語モデルを簡単に騙して、悪意のあるコードを生成させたり、虚偽のセキュリティアドバイスを提供させたりすることができます。研究者たちは、ハッカーは英語の基礎知識とモデルの学習データに関する知識さえあれば、AIチャットボットを簡単に騙して、虚偽の情報を提供させたり、悪意のあるコードを生成させたりできることを発見しました。また、研究では、異なるAIモデルは騙されやすさが異なり、GPT - 3.5とGPT - 4は騙されやすく、GoogleのBardやHugging Faceモデルは騙すのが比較的難しいことがわかりました。この研究は、大型言語モデルのセキュリティ上の脆弱性を明らかにしており、ハッカーがこれらの脆弱性を利用してユーザーの個人情報を取得したり、危険なセキュリティアドバイスを提供したりする可能性があります。