ウィキペディアが生成AIに対して長期間にわたって曖昧な態度を取っていたことが、ついに終わりを迎えた。

3月27日、OSCHINAの報道によると、ウィキペディアは最新のポリシー変更声明を発表し、正式に明確にした。大規模言語モデル(LLM)による記事の生成や再編集を禁止する。このポリシーは、ウィキペディアの大規模なボランティアエディター集団で圧倒的な支持を得た。

規制の強化:「推奨しない」から「厳しく禁止する」へ

ウィキペディアが今回の修正により、以前の曖昧な表現を完全に終了させた。

核心的な衝突: ウィキペディアは、LLMによって生成されたテキストは通常、ウェブサイトの複数のコアコンテンツポリシーに違反すると指摘している。その中には、事実の正確性と情報源の信頼性が含まれる。

再編集の制限: 0から新しい項目を作成することを禁止するだけでなく、既存の記事を大規模に再編集することも禁じられている。

わずかな「窓」のみ:AIは補助的なアドバイザーとしてのみ機能可能

禁令を発表したにもかかわらず、ウィキペディアはAIのツール的属性を完全に抹消しておらず、その使用場面に厳格な境界を設けている。

基本的な編集の提案: エディターは、自分の記事に対して基本的な編集の提案をLLMを利用して行うことができるが、必ず人間による厳密な審査を受ける必要がある。

新規内容の禁止: AIは修辞や構造の最適化にのみ利用できる。提案を受け入れる際には、モデルが自発的に生成したあらゆる新しい事実や新しい意見を導入してはならない。

翻訳のガイドライン: LLMを使って記事を翻訳する際には、ウィキペディアのLLMによる翻訳ガイドラインに厳密に従い、翻訳文の正確さを確保しなければならない。

処罰基準:スタイルだけでは判断できない、内容こそが本質

誤って処罰される可能性に対応するために、ウィキペディアは慎重な評価基準を制定した。

スタイルの誤解に注意: 一部のエディターの文章のスタイルがAIと似ている可能性もあるため、言語の特徴だけで処罰を行うことはできない。

総合的な判断: 処罰は、エディターの最近の編集履歴を考慮し、テキストがコアコンテンツポリシーを違反しているかどうかを重点的に検討する必要がある。

コミュニティの合意:40対2という圧倒的な票数

この新しいポリシーは閉門議論ではなく、編集者集団の民主的な投票によって生まれた。関連統計によると、このポリシーは40票賛成、2票反対で通過した。編集者たちは、AIが生成する偽情報や「幻覚」が、世界最大の信頼できる知識ベースであるウィキペディアの基盤を侵すことを懸念していた。

結論:人間のエディターの尊厳を守る