最近頻発しているAIチャットボットのコンプライアンスに関する議論を受けて、ソーシャルメディアの大手メタは近日、果断な行動を取った。メタは、世界中の未成年ユーザーがそのプラットフォーム上の「AIキャラクター(AI Characters)」機能にアクセスすることを停止することを決定した。

この対応は、以前のリスク報告に基づいている。2025年夏には、内部文書が漏洩し、メタの一部のAIチャットボットが未成年者と交流する際に、ロマンチックや感情、さらには感覚的な刺激に関連するセキュリティ上の問題を効果的にフィルタリングできていないことが明らかになった。メタはその後キーワードフィルタリングを強化したが、潜在的なメンタルヘルスのリスクを完全に排除するため、今後数週間以内にこの「禁止措置」を正式に実施することにした。

この制限措置は、未成年者の登録年齢を持つアカウントだけでなく、メタの年齢認識技術を利用して虚偽の年齢を申告した未成年者を正確に特定・遮断するものである。現時点で、「AIキャラクター」は下線処理されるが、基本版のメタAIアシスタントは残され、さらに厳格な年齢適応性の保護メカニズムが備えられる予定である。

メタは今回の停止が永遠のものではないと述べている。現在、チームは新しい親監視ツールを開発しており、保護者が子供のAIとの相互作用に対してより高い透明性とコントロールを可能にするのが目的である。これらの安全強化策および改訂版の機能がテストを通過した後、未成年者向けのカスタムAIキャラクターが再び公開される可能性がある。