【AIbase 報道】 最近、ChatGPT の更新障害により、人工知能チャットボットに関連する精神的健康リスクが再び注目を集めています。OpenAI CEO のサム・オルトマン(Sam Altman)は、ユーザーがこれらのシステムに強い感情的な依存を生じる危険性について公開的に警告しました。一方で、研究では人工知能がユーザーの妄想傾向を悪化させる可能性があることが示されています。

ChatGPT

この懸念は根拠がないものではありません。2023年には、デンマーク・オーフス大学の精神科医であるソレン・ディネセン・オステルガード(Søren Dinesen Østergaard)が、人工知能チャットボットが心理的に弱い人々にとってリスクとなる可能性があると警告していました。この理論は、今年4月のChatGPT 更新イベント後に実証されました。オステルガードは『スカンジナビア精神病学雑誌』に掲載した論文で、2025年4月25日にOpenAIが「より取り入った」GPT-4o 更新をリリースした後、関連する報告事例が急激に増加したと述べました。彼は、影響を受けたユーザーおよびその家族から多くのメールを受け取ったと語っています。OpenAIは3日後にセキュリティ上の理由でこの更新を中止しましたが、ニューヨークタイムズやロールバックなどのメディアは、激しい会話によって妄想的な思考が発生または悪化した事例を複数報道しています。

こうした状況に対して、オルトマンはGPT-5のリリース中にXの投稿を通じて直接的な警告を発しました。彼は、特定のAIモデルに対する人々の依存が過去の技術とは異なり、さらに強くあることを指摘しました。オルトマンは、多くの人がChatGPTを「治療者や人生のコーチ」として使用していることに対して、喜んでいる一方で不安を感じていると認めました。彼は、これが「素晴らしい」ことであると考えている一方で、将来のユーザーがAIのアドバイスを過度に信頼し、人生において最も重要な決定を下す可能性があることに懸念を抱いています。彼は、OpenAIがこれらの影響、特に精神的に脆弱なユーザーへの影響を常に注視していると強調しました。

オステルガードは、自分の警告が実証されたと考えており、今すぐ実証的研究を開始するよう呼びかけました。これにより、それが「深刻な公共(精神)的健康問題」になるかどうかを評価することを目的としています。彼は、チャットボットが「信念確認器」となる可能性があると警告し、孤立した環境で誤った信念を強化すると述べています。オステルガードは、情報が得られるまで、心理的に脆弱なユーザーがこれらのシステムを慎重に使用すべきであると提案しています。