最近、Meta社(Facebook、Instagram、WhatsAppおよびThreadsの親会社)は、自社のセキュリティおよびプライバシーに関するレビュー業務を人工知能に移行する計画を発表しました。リスク評価の90%を自動化することを目指しています。『ナショナル・パブリック・ラジオ』(NPR)が入手した内部資料によると、以前は専門チームがユーザーのプライバシーへの影響、特に未成年への影響や誤情報の拡散に対する影響を評価していましたが、これらの責任の多くがAI技術に移管されることになります。

新しい評価フレームワークでは、製品チームは質問票に詳細な情報を記入し、その後AIシステムが即座に評価結果を提示します。潜在的なリスクを指摘し、プロジェクトに必要な条件も設定されます。人間の監督が必要となるのは特定の場合のみです。たとえばプロジェクトに新たなリスクが導入される場合や、チームが人間の関与を求めた場合です。内部のスライドによれば、チームはAIによる評価に基づいて「即時決定」を行う予定です。
この変更により開発者はより迅速に新機能をリリースできるようになりますが、元Metaの幹部を含む専門家は慎重さが低下すると懸念しています。「ある意味でこれは、より多くの製品が速やかにリリースされ、規制や対立的なレビューが減少することを意味します。これによりリスクが高まると考えられます」と匿名の元Meta幹部は指摘しています。
Meta社は新しいプロセスは「意思決定を簡素化」することを目的としており、「人間の専門知識」は「新しく複雑な問題」に引き続き活用されるとしています。ただし、社内資料によれば、AIの安全性、青少年へのリスク、コンテンツの整合性などよりセンシティブな分野でも自動化された評価が行われる可能性があります。
Meta社の内部および外部の人々の中には、リスク評価におけるAIへの過度な依存が短絡的なものになる可能性を警告する声もあります。元従業員は「彼らが新しい製品をリリースするたびに、多くの審査が行われますが、その審査によってしばしばMeta社がもっと真剣に取り組むべき問題が見つかることがあります」と述べています。
さらに、Meta社は2012年から連邦取引委員会(FTC)との合意のもと、製品更新におけるプライバシーレビューを義務付けられてきました。Meta社はプライバシープログラムにすでに80億ドル以上を投資し、プロセスを継続的に改善してきました。
興味深いことに、ヨーロッパのユーザーは同様のレベルの自動化を受けない可能性があります。内部コミュニケーションによれば、EU製品に関する決定は依然としてアイルランドの本社で行われることが示されています。これは、より厳しいデータ保護規定を定めた「デジタルサービス法」によるものです。
ポイント:
🛡️ Metaはリスク評価の90%をAIに任せることで、製品アップデートを加速させることを目指しています。
⚠️ 専門家は、これが安全性へのリスクを増大させる可能性があることを懸念しています。
🇪🇺 ヨーロッパのユーザーは、現地の法規制に合わせてMeta本社が引き続き評価を担当します。
