カナダで衝撃を与えたタンブラー・リッジ銃撃事件の後、OpenAIは迅速に対応策を講じました。しかし、法律および技術の専門家はこれに納得していません。Jean-Christophe Bélisle-Pipon教授は、OpenAI最高経営責任者(CEO)のサム・アラートマン氏がカナダ政府に約束した安全確保について、実際には企業の監視によって民主的な規制を置き換えていると指摘しています。

18歳の犯人ジェシー・ファン・ルーテセルダーは、銃撃事件の数か月前にChatGPTアカウントが銃器暴力に関する内容を投稿したためシステムによってマークされていました。アカウントはロックされましたが、OpenAIはこの脅威を警察に報告しませんでした。その結果、この悲劇により8人が死亡しました。

OpenAIの新たな対策:警企業直結の仕組みの構築

これに対してOpenAIは以下の行動を約束しました:

  • 即時報告: 脅威を発見した時点でカナダ RCMP(王立コロネイド警察)に報告します。

  • 再評価: 過去にマークされた疑わしいアカウントを再評価します。

  • 専門家の参加: カナダの専門家がセキュリティオフィスにアクセスし、政府が規制案を策定するのを支援します。

専門家の懸念:“監視代替”の罠

Bélisle-Pipon教授は論文の中で鋭い意見を述べています。OpenAIはモデル設計やトレーニング方法の審査を回避し、代わりにユーザーの発言の監視を強化しているのです。

  1. 責任体制の空白: 報告基準は依然としてOpenAIが独自に設定しており、透明性や外部監査が欠如しています。

  2. 寒蝉効果: ユーザーはチャットボットに心の奥底を打ち明けるのは、そのプライバシーがあるからです。もし会話が警察への直接通報となると、本当に精神的危機に陥っている助けが必要な弱者ユーザーが沈黙してしまう可能性があり、介入の機会を失うことになります。

  3. 規制の支配: このような「自主的な譲歩」は、より厳しい法的規制を事前に予測し、それを緩和しようとするものです。

統治の真の方向:ユーザーからシステムへ

批判者は、本当のAI規制は誰が何を話しているかを監視することではなく、システムそのものを検証することであると考えています。例えば:

  • 独立した分離機関: 心理学や法務の専門家で構成される第三者機関がリスクを評価し、企業が独自に判断するのではなく、そのようにすべきです。

  • モデルレベルの責任: 暴力的な傾向の暴露に対するモデルの反応や、開発段階でのどのストレステストが行われたのかを審査します。

OpenAIが世界中で政府との協力を積極的に求めている中、タンブラー・リッジの出来事は風向標となっています。我々が手にするのは、より安全な技術なのか、それとも私有企業が運営する、抜け目のないデジタル監視網なのか?