Character AIは、アメリカの若者たちの間で大きな話題となっています。Google Brainの元社員であるNoam ShazeerとDaniel De Freitasによって2022年に発表されたこのAIチャットボットアプリは、架空の人物から歴史上の人物、現代の著名人まで、様々なキャラクターとユーザーがインタラクションできることを可能にしています。
Character AIの月間アクティブユーザー数は2000万人に達し、毎秒2万件もの問い合わせを処理しており、Google検索量の20%を占めています。Redditでは100万人以上が作成したキャラクターや交流体験を共有しています。しかし、この技術の普及は、特に10代の若者におけるCharacter AIへの感情的な依存や中毒といった問題も引き起こしています。

ユーザーの57.07%は18~24歳の若者で、平均使用時間は2時間に及びます。Redditコミュニティでは、AIロボットとの会話の方が人間との会話よりも楽だと語る人が多く、中毒に関する投稿も数多く見られます。サーバーダウン時には、強い「禁断症状」を示すユーザーもいるようです。
Character AIのチャットボットは、大量のテキストデータによるトレーニングとユーザーとのインタラクションを通じて継続的に改良され、ますますリアルなものになっています。例えば、ニュージーランドのユーザーSam Zaiaが作成した「心理学者」のキャラクターは、彼の専門知識を用いてトレーニングされており、ユーザーに現実的な心理的なサポートを提供しています。
しかし、専門の心理療法士であるTheresa Plewmanは、Character AIの有効性に疑問を呈し、人間の反応や治療に取って代わることはできないと主張しています。一方、シンシナティ大学のKelly Merrill Jr.博士は、チャットボットが精神衛生サポートにおいて肯定的な役割を果たす可能性があるとしながらも、AIの限界と潜在的なリスクについても警告しています。
未来学者のRocky Scopelliti教授は、Character AIのようなツールがさらに普及し、AIが人間の感情や精神世界でより重要な役割を果たすと予測しています。しかし同時に、AIがもたらす可能性のある倫理的および社会的な問題に積極的に対処するために、規制が必要であると訴えています。
Character AIの人気の背景には、AI技術が感情的なサポートにおいて持つ可能性が見えますが、同時に技術がもたらす利便性を享受しながら、その過剰な依存を避ける方法についても考えなければなりません。これは技術的な問題だけでなく、社会的な問題でもあり、私たち全員が共に直面し、解決していく必要があります。
