在新出臺的法律框架下,英國的科技公司和兒童保護機構將獲得測試人工智能(AI)工具是否能夠生成兒童性虐待圖像的權力。根據安全監管機構的報告,2025年,AI 生成的兒童性虐待材料(CSAM)報告數量較2024年翻了一番,從199件增至426件。此次法律變更的目的是爲了讓 AI 開發者在生產這些圖像之前就能夠檢查和預防相關風險。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
英國政府的 AI 和在線安全部長卡尼什卡・納拉揚表示,這項舉措是 “爲了在問題發生之前就遏制虐待”。在新法律的授權下,特定的 AI 公司和兒童安全組織將被允許檢查聊天機器人和圖像生成器等 AI 模型,確保這些技術具有必要的安全防護措施,防止它們生成兒童性虐待圖像。
此次法律變化作爲《犯罪與警務法案》的修正案推出,其中還包括禁止擁有、創建或傳播旨在生成兒童性虐待材料的 AI 模型。納拉揚部長在訪問兒童熱線時,傾聽了一個關於 AI 相關虐待的模擬電話,電話中描述了一名青少年因 AI 僞造的性別黑 mail 而尋求幫助的情景。
網絡監察機構 “互聯網觀察基金會” 指出,AI 生成的虐待材料報告在今年已經增長了一倍,特別是類別 A 的最嚴重的虐待材料,從2024年的2621張圖像或視頻上升到3086張。同時,針對女孩的圖像佔比高達94%,而對新生兒至兩歲兒童的描繪從2024年的五件增加到2025年的92件。
兒童熱線也公佈了有關 AI 的諮詢案例,顯示出 AI 在青少年生活中的影響,例如利用 AI 評估體重和外貌、聊天機器人阻止兒童向安全成年人談論虐待等。此外,今年4月至9月期間,兒童熱線共處理了367次與 AI 相關的諮詢,是去年同期的四倍,其中一半的諮詢與心理健康和福祉有關。
劃重點:
🛡️ 新法律允許檢測 AI 工具生成兒童性虐待圖像的能力,以防止相關犯罪。
📈2025年,AI 生成的兒童性虐待材料報告數量增長至426件,較2024年翻了一番。
👧 女孩成爲受害者的主要羣體,佔比高達94%,而針對新生兒的案例也顯著增加。
