最近、イギリスのインターネットセキュリティ活動家たちは、通信規制機関オフィコムに対し、メタ(旧フェイスブック)が重大リスク評価において人工知能(AI)を使用することを制限するよう警告しました。この呼びかけは、同社がリスク評価の90%を自動化することを計画しているという報告書に基づいています。この変更により、特に未成年ユーザーの保護に関する多くの懸念が浮き彫りになっています。

ロボット 人工知能 AI (4)

画像提供元:AIによって生成された画像、画像提供サービス Midjourney

イギリスの「オンラインセキュリティ法」によると、ソーシャルメディアプラットフォームには、そのサービスがもたらす可能性のある危害を評価し、適切な対策を講じることが求められています。このリスク評価プロセスは、特に子どもユーザーの安全性を確保するために重要な要素とされています。しかし、モリー・ローズ財団、子供支援慈善団体NSPCC、そしてインターネットウォッチング財団などの複数の組織は、AIによるリスク評価の主導を「後退で非常に憂慮すべきステップ」と述べています。

オフィコムのCEOであるメラニー・ドース氏宛てに送られた活動家の手紙では、彼らは強く要請しており、リスク評価が完全にまたは主に自動生成に依存する場合、それが「適切かつ十分」と見なされないことを明確にすべきだと訴えています。また、プラットフォームがリスク評価プロセスで基準を引き下げることを前提としている点についても疑問を呈しています。これに対して、オフィコムの広報担当者は、この手紙で示された懸念を慎重に検討し、適切なタイミングで返答すると述べました。

一方で、メタ社はこの手紙に対する反応を発表し、安全性に関するコミットメントを強調しました。「我々はリスク決定にAIを使用していません。代わりに、チームが特定の製品で遵守すべき法律やポリシーを認識するためのツールを開発しました。我々の技術は人的監督の下で運用されており、有害コンテンツの管理能力を向上させることが目的です。さらに、我々の技術革新は安全性の結果を大きく改善させています」と、メタの広報担当者が述べました。

モリー・ローズ財団がこの手紙を組織する際、アメリカの放送局NPRの報道を引用しました。それによると、メタは最近のアルゴリズムの更新や新しいセキュリティ機能が主にAIシステムによって承認されるようになり、従来の手動レビューは行われなくなったとのことです。匿名の元メタ幹部は、「このような変更により、Facebook、Instagram、WhatsAppでのアプリケーションのアップデートや新機能の導入がより迅速に行えるようになる」と述べましたが、同時に「新しい問題が新製品のリリース前に見つけにくくなる」というリスクがあるとも指摘しました。

NPRによれば、メタは青少年のリスクや偽情報の拡散など、いくつかのセンシティブな分野での自動審査を検討しています。

要点:

📉 インターネットセキュリティ団体は、オフィコムにメタがリスク評価でAIを使用することを制限するよう求めており、ユーザーの安全性への影響を懸念しています。

🔍 メタはAIがリスク決定を行うわけではないと説明し、人的監督のもとで有害コンテンツ管理能力を向上させるためのツールを提供していると述べています。

⚠️ 報道によると、メタの最新の変更により、新機能をリリースする際にリスクが増加し、潜在的な問題が事前に発見されにくい可能性があります。