3月26日,維基百科正式通過投票表決,宣佈實施針對大語言模型(LLM)的新編輯政策,明確禁止用戶直接使用 AI 生成或重寫文章內容。這一舉措標誌着全球最大的開源百科全書在維護內容準確性與人類編輯主權方面邁出了關鍵一步。

根據最新政策變更維基百科對此前模糊的表述進行了關鍵升級,由原先的“不應從頭開始生成新文章”強化爲“嚴禁使用 LLM 生成或重寫內容”。

維基百科

404Media報道,該政策在志願者編輯羣體中以40比2的壓倒性優勢通過,反映出社區對 AI 潛在錯誤信息侵蝕知識庫的深度擔憂。儘管如此,新規並未完全剝離 AI 技術,而是將其定位爲輔助工具:編輯仍被允許利用 LLM 提出基礎的編輯建議,但在人工審閱採納時,嚴禁工具引入任何未經覈實的“新內容”,以防模型幻覺導致文章背離引用來源。

在生成式 AI 深度滲透內容創作領域的背景下,維基百科的選擇體現了傳統知識社區在效率與真實性之間的審慎平衡。隨着各大媒體平臺競相制定 AI 使用準則,維基百科通過界定“輔助”與“創作”的邊界,試圖在保護人類編輯生態的同時,防範自動化內容氾濫引發的信任危機。這一決策不僅將重塑百科社區的協作邏輯,也爲 AI 時代下公共知識庫的倫理治理提供了重要參考。