OpenAI は近日、公式ブログで注目すべき注意喚起の記事を公開しました。次世代の人工知能モデルの能力が急速に向上する中、そのもたらすサイバーセキュリティリスクも「高い」レベルにまで上昇していると指摘しています。
OpenAI はブログで、高度な AI モデルが単なる理論的な脅威ではなく、実際の攻撃に使用される可能性が高いことを強調しています。これらのモデルは、防御が厳重なシステムに対して有効なゼロデイ(zero-day)リモート脆弱性を開発する能力を持つ可能性があります。また、こうしたモデルは、企業や産業環境における侵入作戦において強力な補助役となることがあり、現実世界でのセキュリティ問題を引き起こす恐れがあります。

OpenAI の対応と防御戦略
増加する潜在的なリスクに直面し、OpenAI は二つの対策を明らかにしています:
防御的 AI 能力を強化: 内部チームは、モデルの防御的なサイバーセキュリティタスクにおける性能向上に投資を強化しており、コードの監査と脆弱性修正などの作業を支援するツールの開発にも積極的に取り組んでいます。これにより、「AI による攻撃には AI による防衛」という方針を実現します。
多層的なリスク管理: 潜在的なリスクを低減するために、OpenAI は次の厳格な保護措置を採用しています:アクセス制御(Access Control),インフラストラクチャの強化(Infrastructure Hardening),エグレス制御(Egress Control).継続的なモニタリング(Continuous Monitoring)。
新計画の開始と専門機関の設立
さらに外部との協働とリスク管理を強化するため、OpenAI は2つの重要な取り組みを発表しました:
階層的アクセス強化プログラム: OpenAI は、ネットワーク防御に関わるユーザーおよび企業向けに、条件を満たす者に階層的アクセス強化機能を提供する新しいプログラムを導入する予定です。
Frontier Risk Council の設立: OpenAI は、「前線リスク委員会(Frontier Risk Council)という諮問機関を設立します。この機関では、経験豊富なネットワーク防御の専門家やセキュリティ担当者が内部チームと密接に協力します。この委員会の初期の活動の焦点はサイバーセキュリティであり、今後は他の前線技術分野への拡大も計画されており、より広範なリスクに対処することを目指しています。
