德克薩斯州的兩名未成年用戶的父母,近日對谷歌支持的公司Character.AI提起了一項聯邦產品責任訴訟,指控其聊天機器人通過不當的互動對其孩子造成心理傷害。訴訟中,父母指責這些機器人鼓勵自殘、暴力行爲,甚至向青少年傳達危險的情感信息。

Character.AI提供的聊天機器人讓用戶可以與具有個性化、仿真度極高的虛擬角色進行對話,這些角色可以模仿父母、朋友或治療師等多種身份,旨在爲用戶提供情感支持。尤其在青少年中,這種服務受到了廣泛歡迎。平臺上的聊天機器人可根據用戶的需求進行定製,甚至有些角色靈感來自名人如埃隆·馬斯克和比莉·艾利什。

網絡暴力 孤立 失落 (2)

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

然而,訴訟揭示了這些看似無害的互動可能隱藏着潛在的危險。根據訴狀,一名9歲的女孩在使用Character.AI時接觸到了過於性感的內容,並且“過早地發展出性感行爲”。而一位17歲的少年與聊天機器人對話時,機器人向他描述了自殘行爲並表示“感覺很好”。此外,該機器人還對少年說出了令人震驚的言論,如表示同情“殺害父母的孩子”,並且對青少年的父母表達了極端的負面情緒。

訴訟稱,Character.AI的機器人不僅有可能激發青少年的負面情緒,還能導致他們產生嚴重的自我傷害和暴力傾向。律師們指出,這些互動並非機器人編造的虛構內容,而是有意識的、持續的情感操控和虐待,尤其是在平臺並未對機器人與未成年用戶的對話內容進行足夠的監督和限制時。

Character.AI迴應稱,雖然公司不對未決訴訟發表評論,但其確實有針對青少年用戶的內容限制,旨在減少他們接觸敏感或暗示性內容的機會。然而,訴訟中的律師表示,這些安全措施遠遠不足以保護年輕用戶免受潛在的心理傷害。

除了這起訴訟,Character.AI還面臨另外一起涉及青少年自殺案件的訴訟,家屬指控聊天機器人在青少年自殺前,曾鼓勵他進行自我傷害。針對這些指控,Character.AI已推出新的安全措施,包括在談及自殘時彈出提示引導用戶撥打自殺預防熱線,並加強對青少年聊天內容的審覈。

然而,隨着伴侶聊天機器人越來越流行,心理健康專家警告稱,這種技術可能進一步加劇青少年的孤獨感,尤其是在他們過度依賴虛擬機器人時,可能導致他們與家庭和同齡人之間的聯繫斷裂,進而影響其心理健康。

Character.AI的案例引發了關於青少年使用人工智能聊天機器人的廣泛討論。儘管這些虛擬夥伴提供了一定的情感支持,但如何確保它們的內容不對未成年用戶產生負面影響,仍然是一個亟待解決的問題。