最近、ウィキペディアの編集チームは、プラットフォーム上の大量のAI生成の低品質な項目に対処するための新しいポリシーを採用しました。このポリシーによると、ウィキペディアの管理者は特定の条件下でこれらのAI生成の記事を迅速に削除する権限を持つことになりました。この措置は、ウィキペディアのコンテンツの質を維持し、偽情報の拡散を防ぐことを目的としています。
WikiProject AI Cleanup の創設メンバーであるIlyas Lebleuは、一部の特徴がAIコンテンツを識別する助けになるものの、それらの特徴は絶対的ではないと指摘しています。彼は、ウィキペディアは文章のスタイルだけで項目を誤って削除することを望んでいないと述べています。なぜなら、人間の著者も質の悪いコンテンツを書く可能性があるからです。しかし、AIの生成速度は人間よりもはるかに速いため、AIによって生成された低品質なコンテンツは深刻な問題となっています。
新規ポリシーでは、2つの主要な条件を満たすAI生成の項目は迅速に削除できると規定されています。まず、項目の中に「ユーザーとの交流内容」が含まれている場合、例えば大規模言語モデルによって生成された明らかなヒント文、例えば「これはあなたのウィキペディアの項目です…」や「私が最後に訓練したアップデートまで…」といった表現があれば、投稿者が記事の内容を本気で確認していないことを示しています。第二に、項目内の参照が明らかに誤っている場合、例えばリンクが開けないまたはトピックと関係がない場合、これはAIコンテンツの一般的なミスです。
Lebleuは、迅速な削除は「一時的な対応策」であり、最も目立つ問題を処理するのに役立つと強調しました。しかし、彼はAIコンテンツの過剰な拡散は継続的な問題であり、これら2つの削除条件に該当しないAI生成のコンテンツも多くあると述べました。それでも、彼はAIが将来ウィキペディアにとって有益なツールになる可能性があると考えています。
ポイント:
✅ ウィキペディアはAI生成コンテンツをより厳しく管理する新しいポリシーを導入し、管理者に迅速な削除権限を付与しました。
✅ すぐに削除できる項目の条件には、AI生成の交流内容が含まれていることと、明確な参照エラーがあることが含まれます。
✅ AIコンテンツの過剰な拡散は継続的な問題ですが、AIは将来的にウィキペディアにとって有益なツールとなる可能性があります。