近日,英國的互聯網安全倡導者向國家通訊監管機構 Ofcom 發出警告,要求限制 Meta(前身爲 Facebook)在關鍵風險評估中使用人工智能(AI)。這一呼籲源於一份報告,報告指出 Meta 計劃將高達90% 的風險評估工作交由 AI 自動完成。這一改變引發了對用戶安全,特別是未成年用戶保護的廣泛擔憂。

機器人 人工智能 AI (4)

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

根據英國的《在線安全法》,社交媒體平臺有責任評估其服務可能帶來的危害,並制定相應的減緩措施。這項風險評估流程被視爲法律的關鍵組成部分,確保用戶尤其是兒童用戶的安全。然而,多個組織,包括 Molly Rose 基金會、兒童慈善機構 NSPCC 和互聯網觀察基金會,認爲讓 AI 主導風險評估是一個 “倒退且極爲令人不安的步驟”。

在致 Ofcom 首席執行官梅拉妮・道斯的信中,倡導者們表示,他們強烈敦促監管機構明確指出,風險評估如果完全或主要依賴自動化生成,將不應被視爲 “合適且充足”。信中還提到,Ofcom 應質疑平臺在風險評估過程中是否可以降低標準的假設。對此,Ofcom 發言人表示,監管機構將認真考慮這一信件中提出的關切,並會在適當的時候做出迴應。

Meta 公司則對這一信件做出了迴應,強調其在安全方面的承諾。Meta 發言人指出:“我們並沒有用 AI 來做出風險決策,而是開發了一種工具,幫助團隊識別特定產品所需遵循的法律和政策要求。我們的技術在人工的監督下進行使用,目的是提升管理有害內容的能力,並且我們的技術進步顯著改善了安全結果。”

Molly Rose 基金會在組織這封信時,引用了美國廣播公司 NPR 的報道,稱 Meta 最近的算法更新和新安全功能將主要由 AI 系統批准,而不再經過人工審查。一位匿名的前 Meta 高管表示,這種變化將使公司能夠更快推出 Facebook、Instagram 和 WhatsApp 上的應用更新和新功能,但同時也會帶來 “更高的風險”,因爲潛在問題在新產品發佈前不太可能被發現。

NPR 還提到,Meta 正在考慮自動化審查一些敏感領域,包括青少年風險和虛假信息的傳播。

劃重點:

📉 互聯網安全組織呼籲 Ofcom 限制 Meta 使用 AI 進行風險評估,擔心對用戶安全的影響。

🔍 Meta 迴應稱並未使用 AI 做出風險決策,而是通過人工監督的工具來提升內容管理能力。

⚠️ 報道指出,Meta 的最新變更可能導致發佈新功能時風險增加,潛在問題難以提前識別。