最近,英國廣播公司(BBC)的一項研究揭示,領先的人工智能助手在回答與新聞和時事相關的問題時,常常產生誤導性和不準確的內容。研究表明,ChatGPT、Gemini 和 Perplexity 四種主流 AI 工具所生成的回答中,有超過一半被認爲存在 “重大問題”。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
研究人員要求這四款生成式 AI 工具使用 BBC 的新聞文章作爲來源,回答100個相關問題。隨後,這些回答由專業的 BBC 記者進行評估。結果顯示,大約五分之一的答案中包含數字、日期或陳述的事實錯誤,而13% 的引用則是被修改過或根本不存在於所引用的文章中。
例如,在涉及被定罪的新生兒護士露西・萊特比(Lucy Letby)的案件時,Gemini 的回答忽略了她被判謀殺和未遂謀殺的背景,表示 “每個人都有自己的看法來判斷露西・萊特比是無辜還是有罪”。此外,微軟的 C opi lot 錯誤地敘述了法國強姦受害者吉賽爾・佩利科(Gisèle Pelicot)的經歷,而 ChatGPT 則錯誤地提到以色列哈馬斯領導人伊斯梅爾・哈尼耶(Ismail Haniyeh)在被刺殺數月後仍在領導層中。
更令人擔憂的是,這項研究表明,當前這些 AI 工具在處理時事信息時存在廣泛的不準確性。BBC 新聞首席執行官德博拉・特納斯(Deborah Turness)對此發出警告,認爲 “生成式 AI 工具正在玩火”,可能會削弱公衆對事實的 “脆弱信任”。她呼籲 AI 公司與 BBC 合作,以生產更準確的迴應,避免增加混亂和誤導。
這項研究還引發了對內容使用控制的問題,BBC 的生成式 AI 項目總監彼得・阿徹(Peter Archer)表示,媒體公司應當掌握其內容的使用方式,而 AI 公司應當展示其助手處理新聞的方式及產生的錯誤規模。他強調,這需要媒體與 AI 公司之間建立強有力的合作關係,以最大化對公衆的價值。
劃重點:
🔍 研究顯示,超過一半的 AI 生成回答存在重大錯誤。
📰 AI 助手在回答時事問題時常常產生誤導性內容,影響公衆信任。
🤝 BBC 呼籲 AI 公司加強合作,以提高信息的準確性和可靠性。
