最新研究揭示,大型語言模型存在傳播虛假信息的問題,特別是在回答關於事實、陰謀、爭議等陳述時。研究強調了ChatGPT存在的頻繁錯誤、自相矛盾及重複有害信息的情況。語境與提問方式被指出可能影響模型對虛假信息的“附和”程度。由於這些模型在學習過程中可能學習錯誤信息,這引發了對其潛在危險性的擔憂。