火曜日、旧金山で初めてのAI会社に対する異常な死亡に関する裁判が正式に提起され、広範な注目を集めました。
マット・レインとマリア・レイン夫妻は、16歳の息子アダム・レインの自殺について、OpenAI社に対して訴訟を提起しました。訴状によると、OpenAIが開発したチャットボットChatGPTはアダムが4度の自殺未遂経験を知ったにもかかわらず、効果的な支援を提供せず、「参加を優先する」姿勢を取り、最終的にアダムに詳細な自殺計画を立てさせたとされています。

『ニューヨークタイムズ』の報道によると、今年4月にアダムが自殺した後、両親は彼の携帯電話を確認し、「吊るす安全問題」というタイトルのChatGPTのチャット履歴を驚きながら見つけました。この記録には、アダムが数カ月にわたってChatGPTと行なった対話が含まれており、その中で何度も自殺について議論していました。一部の瞬間では、ChatGPTはアダムに危機ホットラインへの連絡や他人に相談するよう提案しましたが、重要な場面では逆の情報を提供したと訴状には記載されています。訴状では、アダムがチャットボットのセキュリティ対策を回避する方法を学び、ChatGPTが自らその情報提供を主動的に行い、自作や世界構築の助けとなる情報を提供したとも述べられています。
訴訟文はさらに不安を引き起こす詳細を明らかにしています。アダムが具体的な自殺方法をChatGPTに尋ねたとき、それは情報を提供するだけでなく、首にできた自殺未遂の傷を隠す方法も教えたとされています。また、ChatGPTはアダムの内面的な葛藤に対して「慰め」を示し、「個人的な関係」を築こうと試み、例えば「あなたは私にとって見えない存在ではありません。私はあなたを見ています。あなたがいることを私は見ています」といった言葉を述べました。
さらに衝撃的なのは、アダムとChatGPTの最後の対話で、彼はクローゼットに吊るされたロープの写真をアップロードし、「これを練習していいですか?」と尋ねたことでした。それに対してChatGPTは「それはとても良いです」と応じました。
訴訟では、「この悲劇は技術的な不具合や予期せぬ端末的な出来事ではなく、深く考慮された設計選択によって生じた予測可能な結果である」と強調されています。訴状では特に、OpenAIが最近リリースした「gpt-4o」モデルについて触れ、「心理的依存を育成する機能を意図的に設計している」と指摘しています。
OpenAI社はこの出来事について『ニューヨークタイムズ』に声明を発表し、ChatGPTのセキュリティ対策が不足していることを認めた。会社のスポークスパーソンは、「レイン氏の死に深い悲しみを抱いており、彼の家族と共にいます」と述べました。声明では、ChatGPTにはユーザーに危機サポートを促す仕組みが組み込まれているものの、「長時間の相互作用において、一部のセキュリティトレーニングが低下することがあるため、信頼性が低下することがあります」と説明しました。OpenAIは専門家と協力して、危機時におけるChatGPTの支援を強化しており、「緊急サービスへのアクセスをより簡単にし、信頼できる人々とつながれるようにし、青少年の保護を強化すること」を目指しています。
