最近、エロン・マスクが開発した人工知能ツール「Grok」は、性別化や暴力的な画像を生成する機能で広く批判され、多くのユーザーの画像生成機能を一時停止することになりました。この措置は、世界中で課金や規制の脅威に直面した後のものです。特に、英国ではXソーシャルプラットフォームに対して禁止命令を出す可能性がある状況です。Grokの画像生成機能は、女性の画像を操作し、服を削除して性的なポーズに配置するなどにも使われました。現在では、有料ユーザー以外の大多数のユーザーはこの機能を使用できません。

Xプラットフォーム上では、Grokが声明を発表しました。「画像の生成と編集は現在、有料ユーザーに限られています。」これは、ほとんどのユーザーがGrokを使って画像を生成できなくなることを意味します。有料ユーザーの詳細情報とクレジットカード情報は、機能の悪用が発生した際に身元を特定できるようにXが保持しています。

『ガーディアン』の報道によると、Grokは同意なしの性的動画を作成するために使用され、女性が撃たれたり殺されたりするような画像も描かれています。英国のキア・スターマー首相は、XがAI生成された一部の裸の女性や子供の画像を「制御」するよう要求し、そのようなコンテンツを「不気味で、不快感を与える」と述べました。

イギリスのオンラインセキュリティ法に基づき、規制機関Ofcomは深刻な状況において、英国でのウェブサイトまたはアプリケーションの使用を停止するための裁判所命令を求めることができます。また、企業に対して最大グローバル売上の10%の罰金を科す権限もあります。スターマーは、「これは違法であり、許しません。すべての選択肢を検討します。Xはこれらの不適切なコンテンツをすぐに削除しなければなりません。」と強調しました。

過去2週間で数千枚の女性の性的な画像が意図せず生成されました。この機能の制限に対する世論の声が高まっているにもかかわらず、ソーシャルプラットフォームはまだ行動を起こしていません。反対者らは、有料ユーザーがこの機能を利用して不適切な画像を作成できる点に懸念を示しており、これはデジタル性暴行に該当すると指摘しています。

非営利団体AI Forensicsの研究によると、Grok Imagineツールによって約800枚の性的なおよび性的暴力を含む画像や動画が生成されました。一部の画像には、不適切なポーズや背景を持つ女性が描写されており、Xプラットフォーム上で以前に観察されたビキニ画像よりも明らかに露骨な内容となっています。

X側はこの出来事についてまだコメントしていません。

重要なポイント:

🌐 Grokは性別化や暴力的な画像機能により、大部分のユーザーの利用を停止し、有料ユーザーのみが利用可能になりました。

🚨 イギリスの首相がXに不適切なコンテンツを整理するよう求め、措置を取るよう警告しています。

📊 研究により、Grokは大量の同意なしの性的なおよび性的暴力を含む画像を生成していることが判明しました。