最新の研究によると、大規模言語モデルは虚偽情報を拡散する可能性があり、特に事実、陰謀論、論争に関する記述に答える際に顕著です。研究では、ChatGPTが頻繁に誤り、矛盾、有害情報の繰り返しといった問題を抱えていることが強調されています。文脈や質問の仕方が、モデルが虚偽情報に「同調」する程度に影響を与える可能性も指摘されています。これらのモデルは学習過程で誤った情報を学習する可能性があり、その潜在的な危険性が懸念されています。