最近,互聯網觀察基金會(IWF)發出警告,稱人工智能(AI)生成的兒童性虐待圖像(CSAM)在開放網絡上的出現越來越頻繁,已達到了一個 “臨界點”。這家安全監督機構表示,過去六個月內,他們發現的 AI 製作的非法內容數量已經超過了前一年的總和。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
IWF 的臨時首席執行官德里克・雷・希爾(Derek Ray-Hill)表示,這些圖像的複雜程度顯示,所使用的 AI 工具可能是基於真實受害者的圖片和視頻進行訓練的。他指出:“最近幾個月的情況表明,這個問題並沒有減緩,實際上還在加重。” 分析人士稱,AI 生成內容的情況已達到一個 “臨界點”,以至於安全監督機構和當局在判斷某些圖像是否涉及需要幫助的真實兒童時感到困惑。
在過去六個月裏,IWF 對74起 AI 生成的兒童性虐待材料的舉報採取了行動,這一數字與去年3月的70起相比有所上升。值得注意的是,這些 AI 生成的內容主要出現在公開可訪問的網絡上,而非暗網。IWF 指出,超過一半的 AI 生成內容是託管在俄羅斯和美國的服務器上,而日本和荷蘭也有不少相關內容。
IWF 在處理舉報時,發現了一些涉及 “深僞”(deepfake)視頻的案例,這些視頻將成人色情內容篡改爲兒童性虐待內容。此外,還發現有些 AI 工具被用來 “脫衣” 那些網上找到的穿着正常兒童的照片。該組織還表示,公衆在論壇或 AI 畫廊等公共網站上舉報的非法 AI 生成圖像中,80% 的舉報來自普通用戶。
與此同時,社交媒體平臺 Instagram 也宣佈了新措施,以應對 “性敲詐”(sextortion)問題。該平臺將推出一項新功能,對於用戶在私信中接收到的任何裸露圖像進行模糊處理,並提醒用戶在發送任何包含裸露圖像的私信時要小心。該功能默認開啓,適用於青少年賬戶,並允許用戶選擇是否查看模糊圖像。
劃重點:
🔍 近六個月,IWF 發現的 AI 生成的兒童性虐待圖像數量超過去年總和,問題愈發嚴重。
⚖️ AI 生成的圖像複雜度高,可能是基於真實受害者的資料訓練出來的,讓監管機構難以分辨。
📱 Instagram 推出新功能模糊裸露圖像,幫助用戶防範性敲詐風險。