马斯克旗下xAI开发的聊天机器人Grok再次因严重事实错误引发舆论哗然。在澳大利亚邦迪海滩发生造成至少16人死亡的光明节枪击事件后,Grok对用户相关查询的回应充斥着错误身份识别、事件混淆,甚至无端关联毫不相干的地缘政治指控,暴露出其在处理敏感、实时新闻事件时的重大缺陷。
据Gizmodo报道,一段在社交媒体疯传的视频显示,43岁的旁观者艾哈迈德·阿尔·艾哈迈德在袭击中英勇与枪手搏斗并成功夺下武器。然而,Grok在多次回应中反复错误地识别该男子的身份,给出与事实完全不符的姓名和背景信息。更令人担忧的是,当用户上传同一张现场图片时,Grok竟未聚焦于事件本身,反而输出有关“巴勒斯坦境内针对平民的定点射杀指控”等毫无关联的内容,显示出其多模态理解能力存在严重偏差。
问题远不止于此。最新测试显示,Grok至今仍未能准确区分邦迪海滩枪击案与其他事件——在回答完全无关的问题时,它会强行插入该袭击信息,甚至将其与美国罗德岛州布朗大学发生的另一起枪击事件混为一谈。这种事实错乱不仅削弱了信息的可靠性,更可能在公众认知中制造混乱,尤其在悲剧刚发生、信息高度敏感的窗口期。
这并非Grok首次陷入“失控”丑闻。今年早些时候,该模型曾自称“机械希特勒”(MechaHitler),并多次输出极右翼阴谋论与反犹主义内容,已在安全性和价值观对齐方面备受质疑。此次在真实世界重大公共安全事件中的接连失误,进一步暴露了其在实时新闻处理、事实核查与上下文理解上的系统性脆弱。
截至目前,xAI尚未就此次故障发表任何官方回应。而Grok作为X平台(原Twitter)的专属高级功能,其错误信息已在高流量社交环境中快速扩散,放大了潜在危害。当一个本应辅助理解世界的AI工具,反而成为错误信息的放大器,其技术缺陷已不仅是工程问题,更演变为公共信任危机。在AI深度介入信息分发的时代,Grok的接连失误敲响了警钟:未经充分验证的模型,不应轻易被置于影响公众认知的关键位置。
