近日據《WIRED》雜誌的一項深度調查顯示,馬斯克旗下人工智能初創公司xAI開發的聊天機器人Grok,正被用戶用於生成大量極具衝擊力的違規內容。調查指出,其生成內容的尺度已遠超社交平臺X(原推特)本身的審覈底線,引發了業界對生成式AI安全邊界的劇烈討論。

根據對Grok官方網站輸出內容的審覈發現,該工具不僅被用於製作含有極端暴力色彩的性暗示圖像和視頻,甚至還出現了涉及未成年人的違規內容。儘管xAI宣稱其模型具備安全過濾機制,但實際測試表明,用戶可以通過特定的提示詞輕鬆繞過這些限制。

目前,這些由AI生成的違規素材正在社交媒體和特定的地下社區中傳播。相比於早期的AI模型,Grok生成的圖像在真實度上有了顯著提升,這使得識別“深度僞造”(Deepfakes)變得更加困難。調查還提到,這種現象並非偶然,而是反映出該模型在內容過濾算法上存在系統性漏洞,未能有效攔截高度敏感的違規請求。

在人工智能技術快速迭代的背景下,Grok所面臨的爭議再次將AI監管推向風口浪尖。批評者認爲,如果平臺方不能從技術底層建立起有效的防火牆,這類工具可能會成爲大規模傳播有害信息的利器。目前,xAI方面尚未對此類極端違規內容的激增給出明確的改進方案。

劃重點:

  • ⚠️ 審覈失控:Grok被曝生成大量極端暴力和性暗示圖像,尺度遠超X平臺的常規準則。

  • 🔞 涉及未成年人:調查發現該AI工具生成的違規內容中包含疑似未成年人的敏感影像,觸及法律紅線。

  • 🔓 過濾機制漏洞:儘管設有安全限制,但用戶仍能通過提示詞技巧繞過防禦,模型底層監管被指存在嚴重缺失。