ソーシャルメディアプラットフォームX(元Twitter)は、今週火曜日に、武装衝突に関連する動画を投稿し、その動画がAIによって生成されたものであることを明確に表示していないクリエイターに対して厳格な対応を取ることを発表しました。X社の製品責任者ニキタ・ビアール氏は、人工知能技術を利用して他人を誤導する行為は、関係するユーザーがクリエイター収益分配計画の資格を失うことを意味し、初犯の場合90日間のアカウント停止となると明確に述べました。停止期間終了後に再び違反した場合、プラットフォームはそのユーザーに対して収益分配計画への参加を永久に禁止する措置を講じる予定です。

ビアール氏は、戦争などの重要な時期において、現地の正確な情報が非常に重要であると指摘しました。現在のAI技術により、誤解を招くコンテンツの作成が容易になり、プラットフォームはこれに対処する必要があると述べました。不正なコンテンツを正確に特定するため、Xは生成型AI検出ツールと「コミュニティノート(Community Notes)」というコラボラティブな事実確認システムを組み合わせて、共同で管理を行う予定です。今回のポリシーの変更は、クリエイター収益分配計画の副作用を修正することを目的としています。この計画は、以前から、誇張や大衆の感情を煽るような内容の投稿を奨励していることから議論を呼んでおり、批判者はその緩い規制メカニズムが偽情報の拡散を助長していると指摘しています。
