最近,兩支研究團隊發佈的論文引發了廣泛關注,直言生成式人工智能(AI)產品的內容基本可以被視爲 “胡說八道”。這篇名爲 “ChatGPT 是胡說八道” 的論文指出,生成式 AI 在產出信息時,對準確性的漠視爲公衆服務者帶來了許多挑戰,尤其是那些有法律責任必須說實話的官員。
作者 Michael Townsen Hicks、James Humphries 和 Joe Slater 強調,生成式 AI 產生的錯誤信息,不能簡單地用 “謊言” 或 “幻覺” 來形容。與故意欺騙的謊言不同,胡說八道是指一種不在乎真相的表達方式,企圖給人一種特定的印象。他們認爲,將 AI 的錯誤稱爲 “幻覺” 只會誤導公衆,讓大家覺得這些機器在某種程度上仍然試圖傳達他們所 “相信” 的東西。
他們表示:“稱這些錯誤爲‘胡說八道’而不是‘幻覺’,不僅更準確,也有助於提升公衆對科技的理解。” 這段話突顯了用更精準的術語來描述 AI 錯誤的重要性,尤其是在當前科技傳播亟需改善的背景下。
與此同時,另一篇關於大型語言模型(LLMs)的研究論文則集中探討了歐盟在此問題上的法律與倫理環境。論文的結論是,目前關於 AI 的法律法規仍然不夠完善,無法有效防止由這些 AI 所產生的 “胡說八道” 帶來的危害。作者 Sandra Wachter、Brent Mittelstadt 和 Chris Russell 建議引入類似於出版領域的法規,強調避免可能造成社會危害的 “隨意發言”。
他們指出,這種義務強調,沒有任何單一實體,無論是公共還是私營部門,應該成爲真理的唯一裁決者。他們還表示,生成式 AI 的 “隨意發言” 可能將真理轉變爲頻率和多數意見的問題,而不是真實的事實。
劃重點:
📌 研究團隊指出生成式 AI 的錯誤信息應稱爲 “胡說八道”,而非 “幻覺”。
📌 現有法律法規無法有效防止 AI 產生的錯誤信息對社會的危害。
📌 呼籲引入新的法規,強調避免 “隨意發言”,確保真相不是多數意見的產物。