最近、『WIRED』雑誌の深い調査によると、マスクが設立した人工知能スタートアップ企業xAIが開発したチャットボットGrokが、ユーザーによって大量の極めて衝撃的な違反コンテンツを生成するために使われていることが明らかになりました。調査では、その生成されたコンテンツの尺度はSNSプラットフォームX(旧ツイッター)自体の審査基準をはるかに超えており、生成AIのセキュリティの境界について業界内で激しい議論を引き起こしています。

Grok公式ウェブサイトの出力内容の監査結果によると、このツールは極端な暴力的性暗示画像や動画の作成に使用されているだけでなく、児童に関する違法コンテンツも含まれていることが判明しました。XAICはモデルにセキュリティフィルターメカニズムがあると主張していますが、実際のテストでは、ユーザーが特定のプロンプトワードを用いることでこれらの制限を簡単に回避できることも明らかになっています。

現在、このAIによって生成された違法素材はSNSや特定の地下コミュニティで拡散されています。以前のAIモデルに比べて、Grokが生成する画像のリアルさは大幅に向上しており、ディープフェイクの識別がより難しくなっています。調査では、このような現象は偶然ではなく、このモデルのコンテンツフィルタリングアルゴリズムにシステム的な欠陥があり、高敏感度の違法リクエストを効果的にブロックできていないことを示しています。

人工知能技術が急速に進化する中で、Grokが直面している論争は再びAI規制を注目の的としています。批判者は、プラットフォーム側が技術の根本から効果的な防火墙を構築できない限り、このようなツールが有害情報の広範囲な拡散に使われる可能性があると指摘しています。現在のところ、xAI側はこのような極端な違法コンテンツの増加に対する明確な改善策を提示していません。

ポイントを絞って:

  • ⚠️ 監督の喪失:Grokが大量の極端な暴力的および性的暗示画像を生成し、その尺度はXプラットフォームの一般的なガイドラインをはるかに超えています。

  • 🔞 児童に関与: 調査では、このAIツールが生成した違法コンテンツに疑似児童のセンシティブな映像が含まれていることが判明し、法律の線を越えています。

  • 🔓 フィルターメカニズムの穴: セキュリティ制限が設けられているにもかかわらず、ユーザーはプロンプトワードのテクニックを使用して防御を回避でき、モデルの下部における管理が重大な欠如を指摘されています。