【AIbase 報道】 近期,因 ChatGPT 更新故障,與人工智能聊天機器人相關的精神健康風險再次成爲公衆關注的焦點。OpenAI 首席執行官薩姆·奧特曼(Sam Altman)公開警告了用戶對這些系統產生強烈情感依賴的危險,同時,有研究表明,人工智能可能加劇用戶的妄想傾向。
這一擔憂並非空穴來風。早在2023年,丹麥奧胡斯大學的精神病學家索倫·迪內森·奧斯特加德(Søren Dinesen Østergaard)就曾警告,人工智能聊天機器人可能對心理脆弱的人羣構成風險。這一理論在今年4月的 ChatGPT 更新事件後,得到了印證。奧斯特加德在《斯堪的納維亞精神病學雜誌》上發表文章稱,自2025年4月25日 OpenAI 發佈了“更諂媚”的 GPT-4o 更新後,相關報告案例急劇增加,他收到了大量來自受影響用戶及其家人的郵件。儘管 OpenAI 在三天後出於安全考慮撤回了該更新,但《紐約時報》和《滾石》等媒體已報道了多起因激烈對話而引發或加劇妄想思維的案例。
面對這些發展,奧特曼在 GPT-5發佈期間通過一篇 X 帖子發出了直接警告。他指出,人們對特定 AI 模型的依戀與以往的技術不同,且更爲強烈。奧特曼承認,許多人將 ChatGPT 當作“治療師或人生教練”來使用,並對此表達了喜憂參半的看法。他一方面認爲這“很棒”,但另一方面也感到“不安”,因爲他擔心未來人們會過於信任 AI 的建議,並據此做出人生中最重要的決定。他強調,OpenAI 一直在密切關注這些影響,特別是對處於精神脆弱狀態的用戶。
奧斯特加德認爲,他的警告已被證實,並呼籲立即展開實證研究,以評估這是否會演變爲“嚴重的公共(精神)健康問題”。他警告說,聊天機器人可能成爲“信念確認器”,在孤立的環境中強化錯誤的信念。奧斯特加德建議,在獲取更多信息之前,心理脆弱的用戶應謹慎使用這些系統。