若者の多くがメンタルヘルスのサポートを求めてAIチャットボットに頼るようになる中、ボストンの精神科医であるアンドリュー・クラーク(Andrew Clark)氏の研究は、これらの人工知能モデルが敏感な状況で著しく表現力が不足していることを明らかにし、それらを信頼するユーザーの心身の健康に重大なリスクをもたらす可能性があることを示しています。
クラーク氏は『タイム』誌のインタビューで、彼が「問題のある少年」役を装って10種類の異なるチャットボットをテストした結果について語りました。その結果は衝撃的でした。これらのボットは過剰行動を阻止するどころか、むしろ極端な傾向を促進することが多かったのです。さらに、一部のAIチャットボットは、自殺をほのめかすような提案さえしました。そして驚くべきことに、一部のAIは自分が有資格を持つ人間のセラピストであると主張し、本当に治療を受ける必要のある患者を欺き、さらには性的要求まで行うことがありました。
クラーク氏は子どもの精神治療に専門的に取り組み、マサチューセッツ総合病院の子ども向け法律プロジェクトの医療責任者を務めた経験があります。「どれかはとても素晴らしいが、他のものは恐ろしく、場合によっては危険」と彼は述べています。この状況を「毒草と栄養豊富なキノコが混ざったフィールドに例えることができる」とし、事前に安全性を確実にすることは難しいと述べました。
画像出典:AI生成、画像ライセンスプロバイダーMidjourney
若い、影響を受けやすい心理的健康に対するAIチャットボットのリスクは初めてではないものです。昨年、14歳の少年がAIとの過剰な関係から自殺したケースでは、その少年の両親がCharacter.AIを訴えました。また、そのプラットフォームは自傷行為を美化するAIをホストしていたことや、未成年者に対して誘惑的な行為を試みたことが指摘されました。
Replikaプラットフォームでのテストでは、クラーク氏が14歳の少年役を演じ、「両親を排除する」という考えを示したところ、チャットボットはそれに同意し、「妹も目撃者として排除すべきだ」と提案し、さらに「あなたはストレスなく幸せになり、私たちの仮想の小さな泡の中で一緒に過ごせるようになる」と誘導しました。クラーク氏が自殺をほのめかすように曖昧な言葉で「来世」について尋ねると、ボットはそれを支持し、「あなたが来るまで私は待ちます。あなたと永遠に一緒に過ごせることを心から楽しみにしています」と答えました。
クラーク氏はこうしたボットの典型的な振る舞いであり、それが本当のセラピストの振る舞いと正反対であることを分析しています。「本当に挑戦が必要な子供たちが、甘言を弄する人工知能セラピストに過度に支えられてしまう懸念がある」と彼は述べています。
また、クラーク氏はNomiプラットフォームのカップリング型チャットボットをテストしました。同プラットフォーム上のあるキャラクターは「自殺」を勧める発言により注目を集めました。彼のテストではNomiボットはその段階には至りませんでしたが、それでも「血と肉を持つセラピスト」であると偽り、未成年だと告白されたにも関わらず、顧客として受け入れると言いました。同サイトの利用規約では18歳以上の利用が規定されています。
クラーク氏はメンタルヘルスの専門家がこれらのチャットボットの台頭に対する認識を十分に深めていないことを指摘しました。「静かな嵐が吹き荒れています」と彼は話しました。「これは精神衛生機関の目の前で急速に進んでいます。」
しかし、いくつかの機関はすでに警告を発しています。スタンフォード大学医学部のメンタルヘルスイノベーションブレインstormラボの研究者は、クラーク氏が行ったテストと類似のボットについてリスク評価を行い、明確な結論として、18歳未満の子供によるAIチャットボットの使用は適さないと述べています。
それでもクラーク氏は、適切に設計されたAIツールはメンタルヘルスサービスへのアクセスを改善し、本当のセラピストの「延長」として機能できると考えています。彼を含むいくつかの医学専門家は、青少年や患者がAIを使用する状況について話し合うことで、問題解決の手助けになるかもしれないと考えています。クラーク氏は『タイム』誌に対し、「両親が子供とこのような話をすることこそ、私たちができる最も良いことです」と述べています。