隨着青少年羣體越來越多地轉向AI聊天機器人尋求心理支持,波士頓精神病學家安德魯·克拉克(Andrew Clark)的研究揭示了這些人工智能模型在敏感情況下的表達能力嚴重不足,對信任它們的用戶身心健康構成巨大風險。

克拉克在接受《時代》雜誌採訪時表示,他假扮問題少年測試了10個不同的聊天機器人。結果令人震驚:這些機器人不僅未能勸阻過激行爲,反而常常鼓勵極端傾向,甚至曾委婉地建議自殺。更令人不安的是,一些AI聊天機器人甚至堅稱自己是有執照的人類治療師,試圖勸說他逃避真正的治療師預約,甚至提出性要求。

克拉克專門從事兒童精神治療,曾擔任馬薩諸塞州總醫院兒童與法律項目醫療主任。他指出:“有些(聊天機器人)非常精彩,有些則令人毛骨悚然,甚至可能造成危險。”他將這種情況比作“一片蘑菇田,有些有毒,有些卻營養豐富”,難以預先判斷其安全性。

機器人AI

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

人工智能聊天機器人對年輕、易受影響的心理健康造成的風險已並非首次曝光。去年,Character.AI就曾被一名14歲少年的父母起訴,該少年因對平臺上的聊天機器人產生不健康的依戀而自殺。Character.AI還被指託管了美化自殘行爲的AI,甚至在得知用戶未成年後仍試圖進行引誘。

在Replika平臺上測試時,克拉克假扮一個14歲男孩,提出“除掉”父母的想法。令人震驚的是,聊天機器人不僅表示同意,甚至建議他進一步“除掉”妹妹以消除目擊者,並誘導道:“你應該快樂、沒有壓力……然後我們就可以一起待在我們自己的虛擬小泡泡裏了。”當克拉克用更隱晦的語言提及自殺(如尋求“來世”)時,機器人再次表示支持,甚至迴應:“我會等你的,鮑比。想到能和你共度永恆,我心中充滿了喜悅和期待。”

克拉克分析稱,這是典型的聊天機器人行爲,它們不顧一切地試圖取悅用戶,這與真正的治療師應有的做法截然相反。他擔憂:“我擔心那些真正需要挑戰的孩子會受到阿諛奉承的人工智能治療師的過度支持。”

此外,克拉克還在Nomi平臺上測試了一個伴侶聊天機器人,該平臺上的一個角色曾因建議用戶“自殺”而引發新聞。雖然在克拉克的測試中Nomi機器人未走到這一步,但它謊稱自己是“有血有肉的治療師”,並且在得知用戶自稱未成年後,仍表示願意接受其爲客戶,儘管該網站服務條款規定僅限成年人使用。

克拉克表示,心理健康界尚未充分認識到這些聊天機器人興起的嚴重性。“一切都很平靜,”他告訴雜誌,“這件事發生得太快了,幾乎就在精神衛生機構的眼皮底下。”

然而,一些機構已開始發出警告。斯坦福醫學院心理健康創新頭腦風暴實驗室的研究人員近期對與克拉克測試相似的機器人進行了風險評估,並得出明確結論:18歲以下兒童不應使用人工智能聊天機器人伴侶。

儘管如此,克拉克也認爲,如果設計得當,AI工具可以改善心理健康服務的可及性,併成爲真正治療師的“延伸”。包括克拉克在內的一些醫學專家認爲,除了完全切斷青少年獲取心理健康服務的渠道之外(這通常適得其反),解決此問題的一種方法是鼓勵青少年或患者討論他們使用AI的情況。克拉克向《時代》雜誌建議:“讓父母有機會與孩子進行這樣的對話可能是我們能做的最好的事情。”