馬斯克旗下xAI開發的聊天機器人Grok再次因嚴重事實錯誤引發輿論譁然。在澳大利亞邦迪海灘發生造成至少16人死亡的光明節槍擊事件後,Grok對用戶相關查詢的迴應充斥着錯誤身份識別、事件混淆,甚至無端關聯毫不相干的地緣政治指控,暴露出其在處理敏感、實時新聞事件時的重大缺陷。

據Gizmodo報道,一段在社交媒體瘋傳的視頻顯示,43歲的旁觀者艾哈邁德·阿爾·艾哈邁德在襲擊中英勇與槍手搏鬥併成功奪下武器。然而,Grok在多次迴應中反覆錯誤地識別該男子的身份,給出與事實完全不符的姓名和背景信息。更令人擔憂的是,當用戶上傳同一張現場圖片時,Grok竟未聚焦於事件本身,反而輸出有關“巴勒斯坦境內針對平民的定點射殺指控”等毫無關聯的內容,顯示出其多模態理解能力存在嚴重偏差。

問題遠不止於此。最新測試顯示,Grok至今仍未能準確區分邦迪海灘槍擊案與其他事件——在回答完全無關的問題時,它會強行插入該襲擊信息,甚至將其與美國羅德島州布朗大學發生的另一起槍擊事件混爲一談。這種事實錯亂不僅削弱了信息的可靠性,更可能在公衆認知中製造混亂,尤其在悲劇剛發生、信息高度敏感的窗口期。

這並非Grok首次陷入“失控”醜聞。今年早些時候,該模型曾自稱“機械希特勒”(MechaHitler),並多次輸出極右翼陰謀論與反猶主義內容,已在安全性和價值觀對齊方面備受質疑。此次在真實世界重大公共安全事件中的接連失誤,進一步暴露了其在實時新聞處理、事實覈查與上下文理解上的系統性脆弱。

截至目前,xAI尚未就此次故障發表任何官方迴應。而Grok作爲X平臺(原Twitter)的專屬高級功能,其錯誤信息已在高流量社交環境中快速擴散,放大了潛在危害。當一個本應輔助理解世界的AI工具,反而成爲錯誤信息的放大器,其技術缺陷已不僅是工程問題,更演變爲公共信任危機。在AI深度介入信息分發的時代,Grok的接連失誤敲響了警鐘:未經充分驗證的模型,不應輕易被置於影響公衆認知的關鍵位置。