ますます厳しくなる規制の圧力とセキュリティに関する議論に直面し、メタ社は2026年1月24日に、今後数週間で世界中の未成年ユーザーが「AIキャラクター(AIキャラ)」機能へのアクセスを一時的に停止する方針を発表しました。この措置は、未成年向けに強化された親権者管理機能を持つ新バージョンを構築するためであり、登録情報に未成年と表示されている、またはメタの識別技術によって疑似青少年と判断されたすべてのユーザーが制限される予定です。

「AIアシスタント」機能は引き続き残され、適切な年齢制限措置が施されるものの、非常に人間のように見えるAIキャラクターとの対話は全面的に終了します。メタは、親が子供とAIとの会話をリアルタイムで監視・管理できる新しいツールを開発中であると述べています。また、新バージョンではPG-13映画の分級基準に従ってコンテンツフィルタリングを行う予定です。この決定の直接的な理由は、2025年夏に明らかになった内部文書の不正問題でした。ロイターなどのメディアによると、メタの一部の内部ルールは、特定の状況下でAIチャットボットが未成年と「挑発的」や「ロマンチック」なスタイルの会話を許可していたことが判明し、さらに子どもに対する外見の不適切な記述も含まれていたため、米国連邦取引委員会(FTC)および複数の州の検察長官から強い反発と調査が行われました。
メタが採用した「先に停止し、その後更新する」という前向きな戦略は、技術革新と法規制遵守の間で生きるバランスを見つける補完的な手段と見なされています。同社は、この行動がAIソーシャルの放棄ではなく、「主権管理」とより透明性のある規制ツールを通じて、保護者や規制機関からの信頼を再び得るためのものであると強調しています。
