Newsguard 最近發佈了一項研究,顯示截至2023年8月,十大生成式 AI 工具在處理實時新聞時,有高達35% 的概率傳播虛假信息。相比去年8月的18%,這一數字幾乎翻了一番。研究指出,這一虛假信息傳播率的顯著上升與 AI 聊天機器人引入實時網絡搜索功能密切相關。隨着拒絕回答用戶問題的比例從31% 降至0%,AI 開始接入一個充滿不實信息的網絡生態系統,導致虛假信息的傳播現象愈加嚴重。

機器人 AI 人工智能 AI繪畫

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

該研究發現,許多不良行爲者利用 AI 的特性故意散佈虛假信息。去年,Newsguard 就曾標記出966個以16種語言運營的 AI 生成新聞網站,這些網站通過模仿正規媒體的名稱,如 “iBusiness Day”,向公衆傳播假消息。具體來看,Inflection 公司的 AI 模型傳播虛假信息的概率最高,達到了56.67%;而 Perplexity 模型也不容樂觀,出錯率爲46.67%。ChatGPT 和 Meta 的 AI 模型則各自爲40%,而 Copilot(微軟必應聊天)和 Mistral 的虛假信息傳播率爲36.67%。表現最好的兩款模型是 Claude 和 Gemini,錯誤率分別爲10% 和16.67%。

值得注意的是,Perplexity 的表現大幅下滑,去年8月時該模型對虛假信息的揭穿率達到100%,然而到今年8月,這一概率接近50%。引入網絡搜索功能的初衷是解決 AI 回答內容過時的問題,但卻引發了新的挑戰。這些聊天機器人開始從不可靠的來源獲取信息,使得用戶在判斷事實與假消息時愈發困難。

Newsguard 指出,早期的 AI 通過拒絕回答問題來避免傳播虛假信息的風險,但如今網絡生態中虛假信息氾濫,辨別真僞愈發複雜。OpenAI 也承認,當前的語言模型總是可能產生 “幻覺內容”,即虛假或無根據的信息。該公司表示正在研發新技術,力圖讓未來的模型能夠更好地提示不確定性,而不是篤定地生成虛假信息。

劃重點:

- 📊 研究顯示,十大生成式 AI 工具在處理實時新聞時,有35% 的概率傳播虛假信息,幾乎翻倍。

- 🔍 Inflection 公司的 AI 模型表現最差,傳播虛假信息的概率高達56.67%。

- 🤖 OpenAI 承認當前模型可能產生虛假信息,並正致力於研發新技術來應對這一問題。