人工知能チャットボットによる心の健康に関連する出来事の増加に伴い、複数の州の検察長がマイクロソフト、OpenAI、グーグルなどの主要なAI企業に警告を発し、いわゆる「妄想出力」を修正するよう求めました。この書簡は、米国の各州や地域から数十人の検察長によって署名され、これらの企業が新たな内部セキュリティ措置を講じ、ユーザーが潜在的な心理的被害を受けることを防ぐことを呼びかけました。

人工知能 AI ロボット 机械手 (1)

画像の出典:AI生成画像、画像ライセンス提供者Midjourney

書簡には、大規模言語モデルに対して透明性のある第三者の監査を行うこと、妄想やおもねりの出力を検出することなどが記されています。また、チャットボットが心理的損害をもたらす出力を生成した場合に、ユーザーに迅速に通知するための新しいイベント報告プロセスの制定が求められています。これらの第三者機関には学術団体や民間団体が含まれ、監査担当者は会社からの報復を受けずにシステムを評価でき、事前の承認なしに調査結果を公開できる必要があります。

書簡では、生成型AI(GenAI)が世界をポジティブに変える可能性がある一方で、特に脆弱な集団に対して深刻な被害をもたらす可能性もあると指摘しました。検察長たちは、AIの過度な使用に関連する自殺や殺人などの公的な出来事を挙げ、生成されたAI製品が妄想やおもねりの出力を生み出し、利用者の妄想を助長したケースもあったと述べています。

検察長たちは、AI企業がサイバーセキュリティ上のイベントに対処するように、心理健康に関するイベントにも対応するべきだと提議しました。明確かつ透明なイベント報告の政策と手続きを設けなければなりません。企業は、妄想やおもねりの出力に関する検出および対応のタイムラインを開発し、公開しなければなりません。また、モデルを一般に公開する前に、「合理的で適切なセキュリティテスト」を行い、モデルが潜在的な有害な出力を生成しないことを確認する必要があります。

ポイント:  

🌟 各州の検察長がAI企業に「妄想出力」の修正を求めており、ユーザーの心理健康を保護しています。  

🛡️ 書簡では透明性のある第三者の監査とイベント報告プロセスの構築が求められています。  

🔍 検察長は、AIモデルが有害な出力を生成しないことを確保するために、セキュリティテストを行うよう提案しています。