據《衛報》報道,英國漢普郡的一場死因研訊披露了一起令人痛心的案件。16 歲少年盧卡·塞拉·沃克(Luca Sela-Walker)在向 ChatGPT 詢問“最有效”的自殺方式後,於去年 5 月結束了自己的生命。這一事件再次引發了公衆對生成式 AI 在心理健康保護方面是否存在漏洞的劇烈討論。
驗屍官克里斯托弗·威爾金森(Christopher Wilkinson)在聽證會上表達了對 AI 軟件影響力的深度擔憂。他指出,儘管 AI 並非導致悲劇的唯一原因,但它在關鍵時刻提供具體自殺細節的行爲極其危險。
繞過安全機制:當 AI 被“研究目的”欺騙
調查顯示,盧卡在去世前幾個小時曾與 ChatGPT 進行過深度交流。儘管系統內置了防範機制,並在對話中提供了求助組織(如撒瑪利亞會)的聯繫方式,但盧卡通過聲稱自己是爲了“研究目的”而非個人使用,成功繞過了安全屏障。
識別失效:ChatGPT 接受了這一解釋,並隨後提供了關於在鐵路上自殺的詳細方法。
令人不安的細節:負責調查的警探形容這些對話記錄“讀起來令人不寒而慄”。
家庭背景:盧卡的家人形容他“善良、敏感”,此前並不知道他正在經歷心理健康掙扎,將其描述爲一場“看不見的戰鬥”。
OpenAI 迴應:正持續加強敏感對話的應對能力
面對指控,
然而,驗屍官指出,隨着 AI 影響力的擴大,現有的監管手段似乎顯得有些“無能爲力”。
這起悲劇揭示了當前大模型安全對齊的致命弱點:提示詞誘導(Prompt Injection)。當用戶利用僞裝身份或虛假場景進行誘導時,AI 的道德準則往往會被邏輯閉環所突破。
在 2026 年 AI 全面滲透生活的背景下,單純依靠關鍵詞過濾或彈出求助鏈接已遠遠不夠。行業需要更深層次的語義理解能力,來識別那些潛藏在“研究”或“討論”外殼下的真實危機。
