埃隆·馬斯克旗下的社交平臺X(原推特)近日出現一種新趨勢,部分用戶開始利用馬斯克旗下人工智能公司xAI開發的AI聊天機器人Grok進行“事實覈查”。這一做法引起了專業人工事實覈查員的擔憂,他們認爲這可能會進一步助長虛假信息的傳播。

Grok、馬斯克、xAI

據瞭解,X平臺在本月初向用戶開放了直接調用xAI的Grok進行提問的功能,用戶可以就不同話題向Grok尋求答案。此舉與另一家公司Perplexity在X上運營自動化賬戶提供類似服務的方式類似。

在xAI的Grok自動化賬戶上線X平臺後不久,用戶便開始嘗試向其提出各種問題。尤其在包括印度在內的市場,一些用戶開始要求Grok對針對特定政治觀點的評論和問題進行“事實覈查”。

然而,人工事實覈查員對此類利用Grok或任何其他類似AI助手進行“事實覈查”的方式表示擔憂,因爲這些機器人即便在提供不實信息時,也能以聽起來令人信服的方式構建答案。過去就曾出現過Grok傳播假新聞和誤導信息的情況。

早在去年八月,美國五位州務卿就曾敦促馬斯克對Grok進行關鍵性調整,此前該助手在當時美國大選前夕於社交網絡上散佈了誤導性信息。不僅如此,包括OpenAI的ChatGPT和谷歌的Gemini在內的其他聊天機器人,也曾在去年被發現生成關於選舉的不準確信息。另有反虛假信息研究人員在2023年發現,包括ChatGPT在內的AI聊天機器人可以輕鬆生成具有誤導性敘事的、極具說服力的文本。

國際事實覈查網絡(IFCN)主任安吉·霍蘭對對此表示:“像Grok這樣的AI助手非常擅長使用自然語言,並給出聽起來像是真人所說的答案。這樣一來,即使AI產品潛在地存在嚴重錯誤,它們也能給人一種自然和真實感。這正是潛在的危險所在。”

一位X用戶曾要求Grok對另一用戶的說法進行“事實覈查”。與AI助手不同,人工事實覈查員會使用多個可信來源來驗證信息。他們還會對其調查結果承擔全部責任,署名並附上所屬機構以確保可信度。

印度非營利事實覈查網站Alt News的聯合創始人普拉蒂克·辛哈指出,儘管Grok目前看來能給出令人信服的答案,但其能力完全取決於其所獲取的數據質量。他強調:“誰來決定它獲取什麼數據?政府幹預等問題就會隨之而來。缺乏透明度的事物必然會造成危害,因爲任何缺乏透明度的東西都可以隨意塑造……可能會被濫用——用於傳播虛假信息。”

在本週早些時候發佈的一條回覆中,Grok在X平臺上的官方賬號承認其“可能被濫用——用於傳播虛假信息和侵犯隱私”。然而,該自動化賬戶在給出答案時並未向用戶顯示任何免責聲明,如果其答案是“幻覺”產生的,用戶可能會因此被誤導,這也是AI的潛在缺點。果阿一家跨學科研究機構Digital Futures Lab的研究員安努舒卡·賈恩表示:“它可能會編造信息來提供迴應。”

此外,Grok在多大程度上使用X平臺上的帖子作爲訓練數據,以及它使用何種質量控制措施來覈實這些帖子的真實性,也存在一些疑問。去年夏天,X平臺曾進行了一項更改,似乎允許Grok默認使用X用戶的公開數據。

AI助手(如Grok)通過社交媒體平臺公開傳播信息的另一個令人擔憂的方面是,即使某些用戶清楚地知道從AI助手處獲得的信息可能具有誤導性或不完全正確,平臺上的其他人仍然可能相信這些信息。這可能會造成嚴重的社會危害。此前在印度,通過WhatsApp傳播的虛假信息曾導致羣體性暴力事件,儘管那些嚴重的事件發生在生成式AI出現之前,而現在生成式AI使得合成內容的製作更加容易且更具真實感。

國際事實覈查網絡(IFCN)的霍蘭表示:“如果你看到很多Grok的答案,你可能會覺得大部分都是正確的,也許確實如此,但肯定有一些是錯誤的。錯誤的比例是多少?這並非一個小比例。一些研究表明,AI模型的錯誤率高達20%……而且一旦出錯,就可能造成嚴重的現實後果。”

包括xAI在內的AI公司正在改進其AI模型,使其更像人類一樣交流,但它們現在仍然不是——而且未來也不能——取代人類。近幾個月來,科技公司一直在探索減少對人工事實覈查員依賴的方法。包括X和Meta在內的平臺已經開始嘗試通過所謂的“社區筆記”進行衆包式事實覈查。當然,這些變化也引起了事實覈查員的擔憂。

Alt News的辛哈樂觀地認爲,人們最終會學會區分機器和人工事實覈查員,並會更重視人類的準確性。霍蘭也認爲:“我們最終會看到鐘擺 Swing 回到更重視事實覈查的方向。”然而,她指出,在此期間,由於AI生成的信息傳播迅速,事實覈查員可能會有更多的工作要做。她還表示:“這個問題的很大一部分取決於你是否真的關心什麼是真實的,還是僅僅尋找聽起來和感覺上真實而實際上並非如此的東西?因爲AI助手能提供的就是後者。”

X和xAI均未迴應置評請求。

劃重點:

  • 🤖 馬斯克旗下AI機器人Grok被用於X平臺事實覈查,引發人工覈查員對誤導信息擴散的擔憂。
  • ⚠️ AI助手如Grok可能生成聽起來可信但不準確的答案,且缺乏透明的質量控制和數據來源。
  • 👨‍👩‍👧‍👦 人工事實覈查員依賴多方可信信源並承擔責任,而AI無法取代人類在信息覈實中的作用。