ウィキペディアが生成AIに対して長期間にわたって曖昧な態度を取っていたことが、ついに終わりを迎えた。
3月27日、
規制の強化:「推奨しない」から「厳しく禁止する」へ
ウィキペディアが今回の修正により、以前の曖昧な表現を完全に終了させた。
核心的な衝突: ウィキペディアは、LLMによって生成されたテキストは通常、ウェブサイトの複数の
再編集の制限: 0から新しい項目を作成することを禁止するだけでなく、既存の記事を大規模に再編集することも禁じられている。
わずかな「窓」のみ:AIは補助的なアドバイザーとしてのみ機能可能
禁令を発表したにもかかわらず、ウィキペディアはAIのツール的属性を完全に抹消しておらず、その使用場面に厳格な境界を設けている。
基本的な編集の提案: エディターは、自分の記事に対して
新規内容の禁止: AIは修辞や構造の最適化にのみ利用できる。提案を受け入れる際には、モデルが自発的に生成したあらゆる新しい事実や新しい意見を導入してはならない。
翻訳のガイドライン: LLMを使って記事を翻訳する際には、
処罰基準:スタイルだけでは判断できない、内容こそが本質
誤って処罰される可能性に対応するために、ウィキペディアは慎重な評価基準を制定した。
スタイルの誤解に注意: 一部のエディターの文章のスタイルがAIと似ている可能性もあるため、言語の特徴だけで処罰を行うことはできない。
総合的な判断: 処罰は、エディターの最近の編集履歴を考慮し、テキストがコアコンテンツポリシーを違反しているかどうかを重点的に検討する必要がある。
コミュニティの合意:40対2という圧倒的な票数
この新しいポリシーは閉門議論ではなく、編集者集団の民主的な投票によって生まれた。関連統計によると、このポリシーは40票賛成、2票反対で通過した。編集者たちは、AIが生成する偽情報や「幻覚」が、世界最大の信頼できる知識ベースであるウィキペディアの基盤を侵すことを懸念していた。
結論:人間のエディターの尊厳を守る
