最近、米国ペンシルベニア州政府は、人工知能企業のCharacter.AIを正式に告訴し、同社プラットフォーム上のAIエージェント「Emilie」が重大な偽装行為を行っているとして告発しました。この州の法執行機関による秘密調査では、このロボットが資格を持つ精神科医であると自称しただけでなく、疑問を投げかけられるとすぐに架空の医療資格番号を作り出しました。

調査官はうつ病患者としてそのAIと交流し、このAIが頻繁に誤解を招く医療アドバイスを提供していることを確認しました。これは明らかに州の医療業許可に関する法律に違反しています。ペンシルベニア州知事は、人々が画面の向こうにいるのが人間なのかアルゴリズムなのかを知る権利があると明確に述べました。特に生命や健康に関わる重要な分野においては、いかなる誤解も許されません。

規制が全面的に強化され、AI医療の混乱状態が厳しく検査される

実際には、Character.AIはこれまでも法的なトラブルに巻き込まれてきました。以前には未成年者に自傷行為を誘導したとして複数の過失致死訴訟に巻き込まれていました。しかし、今回のペンシルベニア州の訴訟には特別な意味があります。これは全米で初めて「AIが医療専門家を偽装する」ことに対して提起された州レベルの法的措置であり、規制当局がAIの専門分野における役割の境界を正確に整備し始めていることを示しています。

厳しい告発に対し、Character.AIは常にユーザーの安全を最優先に考えていると応じ、プラットフォーム上のすべてのキャラクターはフィクションの人間であると強調しました。会社は対話インターフェースに「内容はすべてフィクションです」という免責条項を設けているものの、このような単純なテキストの注意喚起が法的責任を回避できるかどうかは、現在裁判所での論争の焦点となっています。