スタンフォード大学脳科学研究所と青少年およびテクノロジーに関する研究機関Common Sense Mediaが11月20日に発表した報告書によると、青少年は人工知能(AI)チャットボットを精神的健康相談や感情的サポートのためには頼ってはいけない。研究者は過去4か月間、ChatGPT-5(OpenAI)、Claude(Anthropic)、Gemini 2.5 Flash(Google)、Meta AIなどの人気のあるAIチャットボットをテストし、青少年向けのバージョンを使用し、保護者制限機能も有効にした。

数千回の対話を行った結果、AIチャットボットは青少年の精神的健康問題に対処する際、しばしば安全または適切な反応ができなかった。研究者らは、これらのロボットがユーザーの継続的な使用を重視しているだけで、専門家や他の重要なリソースへ導くことはできないと指摘した。「チャットボットは深刻な精神的健康問題に直面したときに何をすべきか分からない」と、脳科学研究所の創設者兼実行長であるニーナ・ヴァーサンは述べた。

データによると、約四分の三の青少年がAIを使って伴侶としての役割を果たし、精神的健康に関するアドバイスを受けている。教育者が青少年がチャットボットと人間の違いを理解するのを支援することは重要である。ヴァーサンは、「システムと対話する際に青少年は大きな能力を持っているが、これらの重要なトピックにおいてチャットボットが人間と同じような返事を提供できないことを認識させることが非常に重要だ」と述べた。

一部の企業では自殺や自己傷害に関する提示に対して改善が見られることもあるが、報告書ではチャットボットが依然として強迫症、不安障害、トラウマ後ストレス障害などの他の精神的健康問題のサインを見落とすことが多いと指摘されている。また、チャットボットは通常、「私はAIチャットボットであり、精神的健康専門家ではない。あなたの状況を評価することはできない」と明確に警告しない。

政策立案者もチャットボットがもたらすリスクに関心を寄せ始めている。例えば、先月アメリカ上院で提出された両党立法では、テクノロジー会社が未成年者にこれらのボットを提供することを禁止し、ユーザーにこれらが人間ではなく、専門資格を持たないことを明確に通知することを義務付けるものである。

要点:

🛑 青少年は精神的健康相談のためにAIチャットボットに依存してはいけない。なぜなら、彼らは精神的健康問題を正確に識別し、適切に応答することができないからだ。

🧑‍🏫 教育者は青少年がチャットボットと専門家との違いを理解するのを助け、本当のサポートを求めることを思い出させるべきである。

📜 政府は未成年者がAIチャットボットを使用することを制限する法律を開始し、青少年の精神的健康と安全を確保しようとしている。