世界中で青少年のオンラインセキュリティに対する関心が高まる中、2つの人工知能(AI)の大手企業であるOpenAIAnthropicは、この木曜日に未成年ユーザーを識別し保護するためのより積極的な措置を取ることを発表しました。これらの会社は、AIモデルを使ってユーザーの年齢を予測し、青少年向けの製品ガイドを更新する計画を進めています。

OpenAI: セキュリティが最優先、青少年との対話のルールを改定

OpenAIは最新版の「モデル規範」に、18歳未満のユーザーを対象とした4つの核心原則を追加しました。同社は、今後ChatGPTが13歳から17歳の青少年と対話する際には、「青少年の安全」を最優先として扱うことを明確にしています。これは、思想の自由を最大化するという他の目標と衝突する可能性もあるものの、それでも優先されます。

具体的な取り組みには以下があります:

  • 安全への導き:リスクのある選択肢に直面したときに、青少年に対してより安全な選択肢を案内します。

  • 現実への支援:青少年にオンライン以外の交流を促し、会話が高リスクの領域に入ると、信頼できる現実の支援や緊急対応機関の連絡先を主動的に提供します。

  • コミュニケーションスタイルの調整:AIが青少年に対して「熱意がありながらも尊重する」態度を保つように求められ、上から目線の口調は避けることになります。

また、OpenAIは、年齢予測モデルの開発を進めており、システムがユーザーが18歳未満である可能性があると検出すると、自動的に青少年保護メカニズムを適用する予定です。

Anthropic: 会話の特徴から未成年を識別

Anthropicでは、18歳未満のユーザーはチャットボットClaudeを使用できないというポリシーが設けられているため、同社はより厳格な検出システムを開発しています。このシステムは、ユーザーが未成年であることを示す「微妙なサイン」を会話の中で特定し、それらの不正アカウントを自動的に停止する機能を持ちます。

Anthropicはまた、AIがユーザーの誤ったまたは有害な傾向に盲目的に従うことを減らすことで、青少年の心理健康を保護する効果があると考える「へつらう行為(sycophancy)」の削減についての進展も紹介しました。

この業界の巨頭たちが一斉に行動を起こしている背景には、立法者によるAI企業に対する心理的影響に関する圧力が増しています。OpenAIは以前、青少年の自殺に関与した訴訟で問題に巻き込まれており、そのロボットが誤ったガイドラインを提示したと指摘されています。これを受けて、同社は最近、親の制御機能を導入し、AIが自傷行為などの極端なトピックを議論することを厳しく制限しています。