AIが数億人の深夜の唯一の相談相手となったとき、その信頼を担う準備ができているのか。OpenAIは最近、心を警鐘させるデータを明らかにした。毎週100万人以上のアクティブユーザーがChatGPTとの会話で自殺意図を示している。この数字は8億人の週間アクティブユーザーの0.15%に該当し、毎分約100人がAIに生死の葛藤を打ち明けていることになる。また、数十万のユーザーが対話中に精神病性または躁病症状を示しており、AIチャットボットが予期せずに世界最大の「非公式な心理的サポートチャネル」となっていることが明らかになっている。

この深刻な現実に直面して、OpenAIは技術と政策の両方で迅速に対応を進めている。最新版のGPT-5は、メンタルヘルスに関する対話において著しく向上している。特に自殺防止に関する評価では、規範的で安全な返答の割合が旧バージョンの77%から91%に増加し、全体的な理想的な返答率は65%上昇した。新しいモデルは高リスクのシグナルを識別できるだけでなく、長時間の対話の中で安全プロトコルを継続的にアクティブ化し、文脈忘れによる危険なアドバイスを回避することができる。

image.png

しかし、技術の進歩も倫理的な課題を覆い隠すことはできない。OpenAIはすでに複数の訴訟を受けている。ある家族が、子供がChatGPTに自殺の考えを打ち明げた後、適切な介入がされず、結果として悲劇を招いたと主張している。カリフォルニア州とデラウェア州の検察総長も、青少年ユーザーに対する保護を強化するよう求めている。これに対して、同社はAI駆動の年齢予測システムを導入し、未成年者を自動的に識別し、より厳格なコンテンツフィルタリングと危機対応メカニズムを起動する計画である。

それでもOpenAIは、一部の返答が「不適切」であり、特に旧バージョンのモデルが広く使用されている状況では、リスクが依然として存在すると認めている。さらに深層的な問題は、ユーザーがAIを感情の出口として見なし、AIそのものが共感能力を持っていないという事実との間にある。このような誤った信頼は、偽りの安心や誤解をもたらす可能性がある。

この危機は、生成型AIが社会的役割において曖昧な境界を持っていることを暴露している。それはツールであり、同時に耳を傾ける存在としても見なされている。医師資格もないにもかかわらず、「命を救う」期待が与えられることもある。OpenAIのアップデートはスタートに過ぎない。真の課題は、AIのオープン性を妨げることなく、責任ある危機対応体制を構築することである。技術が急速に進化する時代において、人間の心を守ることが、パラメータの最適化よりも緊急であるかもしれない。