最近の調査によると、世界のセキュリティリーダーの63%が、開発チームによるAI生成コードの使用禁止を検討していることが明らかになりました。この現象は、特にテクノロジー業界で大きな注目を集めています。AIの普及は開発者が些細なタスクに対処するのに役立つと考えられていますが、セキュリティ専門家は懸念を抱いています。

ハッカー、コード、プログラマー

画像出典:AI生成画像、画像ライセンス提供元Midjourney

Venafiの調査によると、意思決定者の92%が、社内でのAI生成コードの使用に懸念を抱いていると回答しており、その主な理由は出力品質への懸念です。AIモデルは時代遅れのオープンソースライブラリに基づいてトレーニングされている可能性があり、生成されるコードの品質が不十分になる可能性があると彼らは考えています。さらに、開発者はこれらのツールに過度に依存し、コードの品質が低下する可能性があります。

セキュリティリーダーは一般的に、AI生成コードの品質検査は手書きコードほど厳格ではないと考えています。彼らは、開発者がAIモデルの出力に対して責任感を感じず、そのためコードのレビューもそれほど厳密に行われないのではないかと懸念しています。Sonar社のCEO、タリク・ショカト(Tariq Shaukat)氏は、AI生成コードの使用後に、コードのレビュー不足が原因で、多くの企業でシステム停止やセキュリティ問題が発生していると述べています。

Venafiのレポートによると、セキュリティ専門家はAIコーディングに多くの懸念を抱いていますが、83%の組織がAIをコード開発に使用しています。そのうち半数以上の企業が、AIを標準的な業務として導入しています。多くの企業がAI支援コーディングの禁止を検討していますが、72%のセキュリティリーダーは、競争力を維持するために、この手法を許可する必要があると考えています。Gartnerのデータによると、2028年までに、企業ソフトウェアエンジニアの90%がAIコードアシスタントを使用し、生産性が向上すると予測されています。

さらに、レポートでは、回答者の約66%が、必要な可視性が不足しているため、組織内でのAIの安全な使用を効果的に監視できないと述べています。セキュリティリーダーは潜在的な脆弱性について懸念しており、59%の人が不安を感じており、ほぼ80%の人が、AIコードの乱用がセキュリティ問題の発生につながり、企業が関連する管理対策を見直すことを余儀なくされると考えています。

要点:

🔍世界のセキュリティリーダーの63%が、出力品質とセキュリティ問題を懸念し、AI生成コードの使用禁止を検討しています。

⚠️意思決定者の92%がAIコードの使用に懸念を抱いており、開発者がAI生成コードを十分にレビューしていないと考えています。

📈深刻なセキュリティ上の懸念があるにもかかわらず、83%の組織が競争力を維持するためにAIをコード開発に使用しています。