最近、LinuxカーネルのメンテナンスチームはAIによって生成されたコードを使用するためのガイドラインを正式に公開し、開発者がGitHub CopilotなどのAIアシスタントツールをプログラミング中に使用することを許可しました。しかし、コードの問題によって引き起こされたバグやセキュリティ上のリスクについては、すべての責任がコードを提出した開発者自身に帰属します。

コード インターネット コンピュータ

このポリシーは数か月にわたる議論の末に策定されました。オープンソースコミュニティ内でAIツールに関する議論は高まり続けています。今年1月には、インテルのエンジニアであるDave Hansenとオラクルの従業員Lorenzo Stoakesが、AIツールの使用を厳しく制限すべきかどうかについて激しく議論しました。最終的に、Linuxの創設者であるLinus Torvaldsは、AIツールの全面的な禁止は意味がないと考えており、AIは単なるツールであると述べました。

Linus Torvaldsは、不適切なコードを提出する開発者は規則を守る可能性が低いと考えており、開発者が使用するツールを制限するよりも、コードを提出した責任者を直接追及すべきだと強調しました。この立場は、一部のオープンソースコミュニティでAIに対して強い反対があることとは対照的です。

このポリシーが導入される前には、各オープンソースプロジェクトがAIによって生成されたコードに対する態度は異なっていました。例えば、NetBSDとGentooはAIによって生成されたコードを明確に禁止しており、「汚染」として扱うと考えています。その理由は、大規模モデルが生成するコンテンツの著作権の出所が明確でないためです。また、オリジナル声明(DCO)も論争の焦点となりました。これは、開発者が提出するコードの所有権を保証するよう求めますが、AIモデルのトレーニング時に使用されるコードはしばしばGPLなどのライセンスの制約を受けているため、開発者がAIによって生成されたコードの合法性を保証するのが難しいのです。

一方で、オープンソースコミュニティのメンテナーや管理者たちは毎日大量の低品質なAI生成コードに対処しています。cURLは不適切なコードに押し寄せて、バグ賞金プログラムを閉鎖せざるを得ませんでした。Node.jsやOCamlも、何千行ものAIによるパッチに関する内部的な論争に直面しています。

Linuxメンテナンスチームの新規定では、AIツールの使用が許可されるだけでなく、開発者がコードがAIによって生成されたものかどうかを明確に表示する必要があります。これにより、ミスの責任を人間の開発者に明確に帰属させます。この取り組みは、AIツールを活用しつつ、コードの質と安全性への責任を確保することを目的としています。

要点:

🌟 AIプログラミングツールの使用を許可:LinuxカーネルチームはGitHub CopilotなどのAIアシスタントツールの使用を正式に許可しています。

⚠️ 開発者の責任:コードの問題によって引き起こされたバグやセキュリティ上のリスクは、提出者に責任があります。

📝 透明性の強調:開発者はコードがAIによって生成されたものかどうかを明確に表示し、コードの質に対する責任を確保しなければなりません。