3月26日、ウィキペディアは投票によって正式に採択し、大規模言語モデル(LLM)に対する新たな編集ポリシーを発表しました。このポリシーでは、ユーザーが直接AIによって生成または再編集された記事内容を使用することを明確に禁止しています。この取り組みは、世界最大のオープンソース百科事典として、コンテンツの正確性と人間の編集権を維持する上で重要な一歩となりました。

最新のポリシー変更に基づき、ウィキペディアは以前の曖昧な表現を強化し、従来の「新しい記事をはじめから生成してはいけない」という記述を、「LLMによるコンテンツの生成または再編集を厳禁とする」と強化しました。

ウィキペディア

404Mediaの報道によると、このポリシーはボランティアの編集者の中で40対2という圧倒的な優勢で採択され、コミュニティにおけるAIによる誤情報が知識ベースに与える潜在的なリスクへの深刻な懸念を反映しています。ただし、新規規則ではAI技術を完全に排除しているわけではなく、補助ツールとして位置づけています。編集者はLLMを使って基本的な編集案を提案することは可能ですが、その提案が人工的に審査・採用される際には、検証されていない「新しい内容」が導入されることを厳禁しており、モデルの幻覚により記事が引用元から逸脱しないようにしています。

生成型AIがコンテンツ制作領域に深く浸透する中、ウィキペディアの選択は、伝統的な知識コミュニティが効率と真実性の間にとる慎重なバランスを示しています。各大手メディアプラットフォームが次々とAI利用基準を策定する中、ウィキペディアは「補助」と「創作」の境界を明確にすることで、人間の編集エコシステムを守りながら、自動化されたコンテンツの過剰な増加が引き起こす信頼危機を防ごうとしています。この決定は、百科事典コミュニティの協働ロジックを再構築するだけでなく、AI時代における公共知識庫の倫理的管理においても重要な参考になります。