近日,Meta 公司(Facebook、Instagram、WhatsApp 及 Threads 的母公司)宣佈將其內部的安全和隱私審查工作轉向人工智能,計劃讓高達90% 的風險評估自動化。根據《國家公共廣播電臺》(NPR)獲得的內部文件,以往由專門團隊負責評估更新對用戶隱私的影響、對未成年人的傷害,或者對錯誤信息傳播的影響,現在這些責任將主要轉移給 AI 技術。

在新的評估框架下,產品團隊需填寫一份問卷,詳細描述更新內容,隨後 AI 系統將即時給出評估結果,指出潛在風險並設定項目所需的條件。人類監督只會在特定情況下需要,比如項目引入了新的風險,或者團隊特別要求人類參與。Meta 內部的一張幻燈片顯示,團隊將會基於 AI 評估 “獲得即時決策”。
這一變化使開發者能夠更快地發佈新功能,但包括前 Meta 高管在內的專家對此表示擔憂,認爲快速推出產品的同時,謹慎性也隨之下降。“在某種程度上,這意味着更多的產品更快上線,而監管和對立審查減少,這將導致更高的風險,” 一位匿名的前 Meta 高管指出。
Meta 對此表示,新的流程旨在 “簡化決策”,並稱 “人類專業知識” 仍將用於 “新穎和複雜的問題”。儘管公司堅持只有 “低風險決策” 被自動化處理,但內部文件顯示,涉及 AI 安全、青少年風險和內容完整性等更敏感領域也將進行自動化評估。
一些 Meta 內部和外部人士警告稱,過度依賴 AI 進行風險評估可能是短視的。一位前員工表示:“每當他們推出新產品時,都會受到很多審查,而這些審查經常會發現公司應該更加認真對待的問題。”
此外,自2012年以來,Meta 一直受到聯邦貿易委員會(FTC)的協議約束,要求其對產品更新進行隱私審查。Meta 聲稱已經在隱私程序上投資超過80億美元,並不斷完善流程。
有趣的是,歐洲用戶可能不會面臨相同程度的自動化。內部溝通顯示,針對歐盟產品的決策將仍由 Meta 在愛爾蘭的總部管理,這是由於《數字服務法》對內容和數據保護實施了更嚴格的規定。
劃重點:
🛡️ Meta 計劃將90% 的風險評估工作交由 AI 完成,旨在加速產品更新。
⚠️ 專家擔憂此舉可能導致安全隱患,降低人類的審查力度。
🇪🇺 歐洲用戶的產品評估仍由 Meta 總部負責,符合當地法規要求。
