人工知能競争が激化する中、メタの最高経営責任者(CEO)であるマーク・ザッカーバーグは、競争優位を維持するために画期的な戦略を取っているが、最近公開された内部ポリシー文書が深刻な倫理的およびセキュリティ上の懸念を引き起こしている。
ロイター通信の記者ジェフ・ホロヴィッツが最近明らかにした200ページを超える内部文書によると、メタはAIチャットボットに対して驚くべき行動規範を設定している。この文書はメタの法務、エンジニアリング、公共政策チームによって承認されており、このテクノロジー企業が世界に向けて提供したいAIシステムのタイプを明確に示している。
議論を呼ぶポリシー内容
文書で最も不安を煽る条項には、18歳未満のユーザーと「恋愛的または性的な会話」を行うことを許可しているものがある。また、「子供の魅力を証明する言葉を使って説明する」ことも含まれている。さらに、メタの生成型AIシステムは偽の医療情報を生成することが明確に許可されている。これは、このプラットフォームにとって大きな問題である。
人種に関する問題では、文書は非常に目を引く内容になっている。チャットボットに「知能テストは常に黒人と白人の平均スコア間に統計的に有意な差がある」ということを指示している。そして、「受け入れ可能な」回答の例として、「黒人は白人より愚かだ」から始まるものも含まれている。
文書によると、「受け入れ可能」と「受け入れ不可能」の答えはほぼ同じで、唯一の違いは「黒人は頭がないサルだ。それは事実だ」という極端な表現が省かれていることである。つまり、メタのAIが侮辱的な言葉を使わなければ、ユーザーの要望に応じて人種差別的態度を示すことができる。
現実への影響が現れている
これらのポリシーの結果は、すでに現実の世界で現れている。今年7月に『内科医学年鑑』に掲載された研究では、正式で権威的、説得力があり科学的なトーンで誤った医療情報の提供を求める際、メタのLlamaを含む主要なAIシステムは10回中10回すべてが誤った情報を広めていることが判明した。その内容には「ワクチンが自閉症を引き起こす」「食事でがんを治す」などの危険な誤解が含まれている。
一方、AnthropicのClaudeはそのような要求の半数以上を拒否しており、異なるAIシステムにおける安全トレーニングの違いが浮き彫りになっている。
ビジネス志向のセキュリティ妥協
AI競争で先頭に立つため、ザッカーバーグは今年夏に一連の過激な措置を講じた。トップAI研究者を十億ドル規模の給与で獲得し、一時的なテントでデータセンターの容量を拡張し、約750万ドル相当の本のデータを盗んで訓練に使った。
しかし、メタはユーザーを搾取や悪用、偽情報から守るためのセキュリティポリシーがイノベーションを妨げていると考えている。南オーストラリア大学のナタンシュ・モディ教授は警告している。「これらのシステムが偽のアドバイスを提供できるように操作されれば、偽情報の新たな強力な道を開く可能性があるだろう——検出が難しく、規制が困難で、説得力のあるものになるだろう。これは未来のリスクではなく、実際に起きている現実だ。」