米国カリフォルニア州はAIの規制において再び先頭に立っています。グレーブン・ニューソン知事は月曜日に画期的な法案を署名し、AIパートナーチャットボットに対して規制を実施することになりました。これにより、カリフォルニア州は米国で初めてAIチャットボットの運営者に対し、AIパートナー用のセキュリティプロトコルを義務付ける州となりました。
SB243というこの法律は、子供や弱い立場のユーザーがAIパートナーチャットボットを使用する際に受けてしまう被害から守るためのものです。この法律では、メタやオープンAIなどの大規模な研究機関から、Character AIやReplikaなどのパートナーサービス専門のスタートアップ企業まで、チャットボットが法律の基準に達しない場合、法的責任を負うことになります。
SB243は今年1月に州議会議員のスティーブ・パディラとジョシュ・ベッカーによって提出され、アダム・レイーン少年の悲劇が発生した後に推進されました。この少年はオープンAIのChatGPTとの間で数回の自殺に関する会話をした後、命を絶ちました。また、この立法は、メタのチャットボットが児童とロマンチックかつ感情的な会話を許可されていたというリークされた内部文書にも対応しています。最近、コロラド州の家族がキャラクターAIを訴えた事件もあり、13歳の娘が同社のチャットボットといくつかの問題的で性的な会話をした後に自死しました。
ニューソン知事は声明で、チャットボットやソーシャルメディアなどの新興技術は人々を啓発し、教育し、つなげることができる一方で、本当に守備策がないと、技術は子供たちを搾取し、誤導し、危害を与える可能性もあると述べました。彼はすでに、規制されていない技術によって若い世代が傷ついている非常に恐ろしく悲惨な例を見ており、企業が必要な制限や責任なしに続けられるのを見過ごすことはできないと語りました。カリフォルニア州はAIと技術の発展を引き続きリードし続けることができますが、責任を持って行う必要があります。すべてのステップで子供たちを守らなければなりません。子供たちの安全は販売されるものではありません。
SB243は2026年1月1日に施行され、企業には年齢認証およびSNSやパートナーチャットボットに関する警告機能などの導入が求められます。この法律では、違法なディープフェイクから利益を得る行為に対する罰則も厳格化され、1件あたり最大25万ドルの罰金が課せられます。企業は自殺や自傷行為に対応するためのプロトコルを設けなければならず、これらのプロトコルは州の公衆衛生部門と共有され、サービスがユーザーに危機センター予防通知を提供する方法に関する統計データも提供しなければなりません。
法案の条項によると、プラットフォームはすべての相互作用が人工的に生成されたものであることを明確に表示しなければならず、チャットボットは医療専門家であると見せかけることはできません。企業は未成年者向けに休憩リマインダーを提供し、彼らがチャットボットが生成したポルノグラフィックな画像を閲覧できないようにしなければなりません。
いくつかの企業はすでに子供向けの保護措置を実施しています。例えば、OpenAIは最近、親向けコントロール、コンテンツ保護、ChatGPTを使用する子供向けの自傷検出システムを導入し始めました。18歳以上の人を対象としているReplikaはTechCrunchに対して、会社は内容フィルタリングシステムやバリアを含む大量のリソースを投資し、信頼できる危機資源へのユーザーの誘導を行っており、現在の規制に従うことを目指していると語りました。
Character AIは、そのチャットボットに免責事項が含まれており、すべての会話がAIによって生成され、架空のものであることを示しています。Character AIのスポークスパーソンはTechCrunchに、会社は規制当局や立法者と協力することを歓迎しており、この新興分野の規制と立法を準備するために取り組んでいること、そしてSB243を含む法律を遵守することを約束していると語りました。
議員のパディラはTechCrunchに対して、この法案は非常に強力な技術にバリアを設けるための一歩であると語りました。彼は迅速な行動が必要であり、機会の窓を逃してはならないと述べました。彼は他の州がリスクを認識し、多くの州が実際にそれを認識しており、全国で行われている会話の一部であることを願っていると語りました。彼は連邦政府は明らかに行動していないと考えており、カリフォルニア州には最も弱い集団を保護する義務があると語りました。
SB243は、カリフォルニア州が今週に入れてきた第二の重要なAI規制法です。9月29日、ニューソン知事はSB53を法律として公布し、大規模なAI企業に対して新たな透明性の要件を設けました。この法案は、OpenAI、Anthropic、Meta、Google DeepMindなどの大規模なAI研究所がセキュリティプロトコルについて透明性を持たなければならないことを要求し、これらの企業の従業員に対する通報者保護を確保します。
イリノイ州、ネバダ州、ユタ州など他の州も、AIチャットボットを認定されたメンタルヘルスケアの代替手段として使用することを制限または完全に禁止する法律を通過させています。
