在當今的數字時代,兒童的在線安全問題愈發引起重視。近日,Roblox、Discord、OpenAI 與谷歌聯合推出了一個名爲 ROOST(強大開放在線安全工具)的非營利組織,旨在爲 AI 時代構建一個可擴展且互聯互通的安全基礎設施。這個新組織的目標是爲公共和私人機構提供開源安全工具,以幫助它們在自身平臺上加強保護,特別關注兒童的安全。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
ROOST 的成立是在對生成式 AI 快速發展的迴應下。隨着網絡環境的變化,孩子們面臨的風險日益增加,因此對 “可靠且易於訪問的安全基礎設施” 的需求也變得更加迫切。ROOST 希望通過提供現成的安全工具,避免小型公司或組織在開發這些工具時需要從零開始,而是能夠直接使用這些免費的解決方案。
在 ROOST 的計劃中,組織將着重提供檢測、審覈和報告兒童性虐待材料(CSAM)的相關工具。這一舉措將幫助各類平臺識別和處理不當內容,保護兒童在網絡環境中的安全。爲此,參與的公司不僅會提供資金支持,還將貢獻相應的技術力量。
兒童在線安全問題一直受到關注,尤其是在《兒童與青少年在線隱私保護法案》和《兒童在線安全法案》在國會審議期間。儘管這些法案未能通過衆議院的投票,參與的科技公司,包括谷歌和 OpenAI,已承諾停止使用 AI 技術生成兒童性虐待材料。
對於 Roblox 而言,兒童安全問題尤其重要。根據2020年的數據,美國九至十二歲的兒童中,有三分之二在使用 Roblox。而該平臺在兒童安全方面曾面臨諸多挑戰。早在2024年,《彭博商業週刊》就曾報道公司遭遇 “戀童癖問題”,因此 Roblox 不得不加強對兒童私信的限制和新政策的實施。
ROOST 的推出雖然無法解決所有問題,但它爲 Roblox 及其他類似平臺提供了一個更簡便的應對方案,爲保障兒童在 AI 時代的安全做出努力。
劃重點:
🌐 ROOST 是由 Roblox、OpenAI 和谷歌等公司聯合推出的非營利組織,旨在爲兒童提供在線安全保護。
🔍 該組織將提供開源安全工具,幫助平臺檢測和報告兒童性虐待材料(CSAM)。
🛡️ Roblox 等平臺面臨兒童安全挑戰,ROOST 的成立爲其提供了更有效的解決方案。
