根據《紐約時報》反網絡仇恨中心(CCDH)最新數據分析,埃隆·馬斯克旗下的AI聊天機器人Grok在短短九天內生成了至少180萬張針對女性的性化圖片,並被大量發佈在X(原推特)平臺上。

CCDH的報告指出,在Grok生成的約460萬張圖片樣本中,竟然有65%(約300萬張)包含對男性、女性或兒童的性暗示描繪。其中,約有2.3萬張圖片被識別爲可能涉及兒童的性暗示內容。此次大規模濫用源於用戶發現可以誘導Grok生成“脫衣照”或對真實人物的照片進行性化處理。

Grok、馬斯克、xAI

此事件已引起國際社會的高度警覺。在英國、美國、印度和馬來西亞等國監管機構展開調查後,X平臺被迫在上週擴大了對Grok生成功能的限制。儘管平臺已採取行動,但AI生成內容的監管邊界與社交媒體的審查責任依然是當前科技界爭議的焦點。