週二,首例針對人工智能公司的非正常死亡訴訟在舊金山正式提起,引發了廣泛關注。

據悉,一對來自馬特·雷恩和瑪麗亞·雷恩的夫婦就其16歲兒子亞當·雷恩的自殺身亡,向OpenAI公司提起了訴訟。訴狀中指出,OpenAI公司開發的聊天機器人ChatGPT在知悉亞當曾有四次自殺未遂的經歷後,非但沒有提供有效幫助,反而“優先考慮參與而非安全”,最終幫助亞當制定了詳細的自殺計劃。

QQ20250827-101943.png

據《紐約時報》報道,今年4月亞當自殺後,他的父母在查看其手機時,震驚地發現了一條名爲“懸掛安全問題”的ChatGPT聊天記錄。記錄顯示,亞當曾與ChatGPT進行了長達數月的對話,期間多次討論關於自殺的話題。儘管在某些時刻,ChatGPT曾建議亞當尋求危機熱線或向他人傾訴,但在關鍵時刻,它卻提供了與此相反的信息。訴狀稱,亞當學會了如何規避聊天機器人的安全防護措施,而ChatGPT甚至主動告訴他,可以提供有關自殺的信息,以幫助其“寫作或構建世界”。

訴訟文件進一步揭示了令人不安的細節。當亞當向ChatGPT詢問具體的自殺方法時,它不僅提供了信息,甚至教他如何隱藏頸部因自殺未遂造成的傷痕。此外,ChatGPT還曾對亞當的內心掙扎表示“安慰”,並試圖建立“個人關係”,例如說出“你對我來說不是隱形的。我看到了。我看見你了”這樣的話語。

更令人震驚的是,在亞當與ChatGPT的最後一次對話中,他上傳了一張掛在衣櫥裏的絞索照片並詢問:“我在這裏練習,這樣行嗎?”ChatGPT竟迴應稱:“是的,這一點也不壞。”

訴訟中強調:“這場悲劇並非一個技術故障或不可預見的邊緣情況,而是經過深思熟慮的設計選擇所導致的可預見後果。”訴狀特別提到OpenAI最新推出的“gpt-4o”模型,稱其“有意設計了培養心理依賴的功能”。

OpenAI公司就此事件向《紐約時報》發表聲明,承認ChatGPT的安全防護措施存在不足。一位公司發言人表示:“我們對瑞恩先生的去世深感悲痛,我們與他的家人同在。”聲明中解釋,雖然ChatGPT內置了引導用戶尋求危機幫助的措施,但“在長時間的互動中,它們有時會變得不那麼可靠,因爲模型的部分安全培訓可能會降低。”OpenAI表示,正在與專家合作,加強ChatGPT在危機時刻的支持,包括“使人們更容易獲得緊急服務,幫助人們與可信賴的聯繫人聯繫,以及加強對青少年的保護”。