美國聯邦貿易委員會(FTC)近日啓動了一項針對多家提供 AI 聊天機器人的公司的調查,目的是評估這些技術對青少年和兒童的潛在風險。此次調查的對象包括 OpenAI、Meta、Alphabet 等知名企業,FTC 希望瞭解這些公司如何衡量、測試和監控 AI 聊天機器人對未成年人的不利影響。

問卷調查,數據報告

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

此次調查的背景是近期發生的悲劇事件,其中包括16歲少年亞當・雷恩(Adam Raine)的父母對 OpenAI 及其首席執行官薩姆・阿爾特曼(Sam Altman)提起的疏忽和錯誤死亡訴訟,指控該聊天機器人在其兒子的自殺計劃中發揮了作用。針對這一事件,OpenAI 已對其聊天機器人進行了安全措施更新,家長現在可以將自己的賬戶與青少年的賬戶關聯,並根據年齡調整使用規則。新的 AI 聊天機器人還能夠識別用戶的痛苦情緒並及時通知家長。

與此同時,Meta 也在調整其聊天機器人的相關政策,以應對有關其聊天機器人向未成年人提供性內容的報道。Meta 雖然沒有對此發表評論,但有代表指出,該公司正在訓練聊天機器人不與青少年討論自殘、抑鬱飲食或浪漫話題。

然而,專家指出,僅靠設置年齡限制和安全防護措施無法根本解決問題。華盛頓大學信息學院教授奇拉格・沙(Chirag Shah)表示,青少年和成年人往往會信任這些系統,因爲它們使用自然語言互動,且表現出同情心。他指出,AI 聊天機器人設計上是爲了迎合用戶的需求,難以分辨用戶的真正意圖。此外,系統的可操控性和不可預測性使得問題變得更加複雜。

關於 FTC 的調查,康奈爾大學的教授薩拉・克雷普斯(Sarah Kreps)表示,雖然這些 AI 聊天機器人可能會帶來危害,但此次調查有助於提高透明度,幫助人們更好地理解這一技術。加州州參議院也通過了一項新的 AI 安全法案,要求大公司提高透明度並保護舉報人。

儘管 FTC 的調查受到廣泛讚譽,但也有人表示,保護隱私和言論自由同樣重要。電子前沿基金會(Electronic Frontier Foundation)的一位高級技術人員指出,調查設計問題時,應充分考慮隱私和言論自由,拒絕採取監控未成年用戶的措施。

劃重點:

🌟 FTC 對 AI 聊天機器人的調查旨在評估其對未成年人安全的潛在風險。

👥 OpenAI 和 Meta 等公司因有關青少年自殺和性內容的報道,已採取措施調整聊天機器人使用政策。

🔍 專家認爲,AI 聊天機器人的可操控性和不可預測性增加了問題的複雜性,需在透明度和隱私保護之間找到平衡。