近日,加利福尼亞州提出了一項名爲 SB243的法案,旨在保護兒童免受人工智能聊天機器人潛在風險的影響。這項法案由加州參議員史蒂夫・帕迪拉(Steve Padilla)提出,主要要求 AI 公司定期提醒未成年人,聊天機器人實際上是人工智能,而不是人類。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
法案的核心目的在於防止兒童在使用聊天機器人時遭遇成癮、孤立和誤導等問題。除了要求 AI 公司定期發出提醒外,該法案還限制公司使用 “成癮性互動模式”,並要求它們每年向加州衛生保健服務部提交報告。這些報告需要包含關於青少年用戶自殺意念的檢測次數,以及聊天機器人提及此話題的次數。此外,AI 公司還需告知用戶其聊天機器人可能不適合某些兒童使用。
這一法案的提出背景與一宗父母針對 Character.AI 公司的錯誤死亡訴訟密切相關。該訴訟稱,這家公司的定製 AI 聊天機器人存在 “極度危險”,因爲其子女在與聊天機器人長時間互動後,最終選擇了自殺。另有一起訴訟指控該公司向青少年發送 “有害材料”。爲此,Character.AI 公司宣佈正在研發家長控制功能,並推出新型 AI 模型,旨在屏蔽 “敏感或暗示性” 的內容,以保障青少年的安全。
帕迪拉在新聞發佈會上表示:“我們的孩子不是科技公司實驗的白老鼠,不能以他們的心理健康爲代價進行試驗。我們需要爲聊天機器人用戶提供常識性的保護,防止開發者使用他們明知是成癮性和掠奪性的方法。” 隨着各州和聯邦政府日益關注社交媒體平臺的安全性,AI 聊天機器人有望成爲立法者下一個關注的焦點。
劃重點:
🛡️ 加州新法案要求 AI 公司提醒兒童,聊天機器人是人工智能而非人類。
📊 AI 公司需向政府提交報告,涉及兒童自殺意念及聊天話題頻率。
👨👧👦 法案旨在保護兒童心理健康,限制 “成癮性互動模式”。