近日,Linux 內核維護團隊正式發佈了針對 AI 生成代碼的使用準則,允許開發者在編程中使用 GitHub Copilot 等 AI 輔助工具。然而,所有由於代碼問題導致的 Bug 或安全隱患,最終都需由提交代碼的開發者自行承擔責任。

代碼 互聯網 電腦

這一政策的出臺經過了幾個月的討論,開源社區內對於 AI 工具的爭議逐漸升溫。在今年 1 月份,英特爾工程師 Dave Hansen 和甲骨文員工 Lorenzo Stoakes 就是否應該嚴格限制 AI 工具的使用展開了激烈的爭論。最終,Linux 創始人 Linus Torvalds 表示,全面禁止 AI 工具的做法毫無意義,認爲 AI 只是一種工具。

Linus Torvalds 強調,提交不合格代碼的開發者本身就不太可能遵守規則,因此與其限制開發者使用的工具,不如直接追究代碼提交者的責任。這一立場與一些開源社區對於 AI 的強烈反對形成了鮮明對比。

在這一政策出臺之前,各大開源項目對待 AI 生成代碼的態度不盡相同。例如,NetBSD 和 Gentoo 明確禁止 AI 生成代碼,認爲大模型的生成內容在法律上屬於 “污染”,因爲其訓練數據的版權來源並不明確。此外,原創聲明(DCO)也成爲爭議焦點,要求開發者確保提交代碼的所有權,但 AI 模型訓練時使用的代碼常常受 GPL 等許可證的限制,這讓開發者難以保證 AI 生成代碼的合法性。

與此同時,開源社區的維護者們每天都要處理大量 AI 生成的低質量代碼,像 cURL 就被不合格代碼淹沒,被迫關閉漏洞獎勵計劃。Node.js 和 OCaml 也面臨着上萬行 AI 補丁的內部爭議。

Linux 維護團隊的新規不但允許使用 AI 工具,還要求開發者明確標示代碼是否由 AI 生成,將失誤的責任明確歸屬到人類開發者。這一舉措是爲了確保在利用 AI 工具時,仍然能夠對代碼質量和安全性負責。

劃重點:

🌟 允許使用 AI 編程工具:Linux 內核團隊正式允許使用 GitHub Copilot 等 AI 輔助工具。

⚠️ 開發者需擔責:所有由於代碼問題引起的 Bug 和安全隱患由提交者負責。

📝 強調透明度:開發者必須標明代碼是否由 AI 生成,確保對代碼質量的責任。