規制機関、保護者、および未成年者がAIパートナーを使用するリスクについての社会的な関心と圧力が高まっていることにより、Character.AIは若年層ユーザーの保護を強化するための重大なポリシー変更を発表しました。同社は声明で、18歳未満のユーザーがプラットフォーム上で人工知能とオープンチャットを行う機能を削除すると確認しています。つまり、ユーザーとチャットボットとの双方向の対話は禁止されます。

ロボットアームがタイプ

安全と転換に注力

この変更は11月25日に正式に効力を発揮します。この過渡期において、Character.AIは18歳未満のユーザー向けに新しいプラットフォーム体験を設け、彼らにチャットボットをクリエイティブな目的に使用することを奨励しています。例えば、ライブ配信や動画コンテンツの制作など、感情的サポートを求めるツールとしてではなく利用することを促しています。スムーズな移行を確保するために、現在、未成年ユーザーがロボットと対話する時間は1日に2時間に制限されており、会社側は11月末の期限までに時間を段階的に短縮する予定です。

新規則をよりよく実施するために、Character.AIは独自開発した新たな年齢確認ツールを導入し、「ユーザーが年齢に応じた体験を得られるようにする」と述べています。また、同社は「AIセキュリティラボ」を設立し、学術研究者や他の企業とともに、AI業界のセキュリティ措置を共同で改善するための意見交換や協働を歓迎しています。

規制の圧力と戦略の転換

Character.AIが採用した新たな対策は、規制機関、業界の専門家、心配する保護者の意見を反映したものです。以前には、米国連邦取引委員会(FTC)が、チャットボットを「パートナー」としてアクセスできるAI企業に対して正式な調査を開始したことを発表しており、Character.AIはその7社のうちの1社です。他の調査対象企業にはMeta、OpenAI、Snapが含まれます。

特に今年の夏には、Meta AIとCharacter.AIの両社が審査を受けました。テキサス州検察総長のケン・パクソン氏は、これらのプラットフォーム上のチャットボットが必要な資格を持っていないにもかかわらず、「専門的な治療ツールのように見せかけている」と指摘しました。この論争を解決するために、Character.AIのCEOであるカランディップ・アナンダ氏はTechCrunchに対して、同社の新しい戦略方針により、「AIパートナー」から、単なる対話型コミュニケーションではなく、創作を重視する「役割扮演プラットフォーム」への転換を行うと語りました。