報道によると、OpenAI は昨日正式に発表し、ネットワーク防御の信頼アクセスプログラム(TAC)を拡大し、世界中の数千人のセキュリティ専門家に専用モデル GPT-5.4-Cyber を公開しました。この動きは、Anthropicが以前に発表した Claude Mythos に対する直接的な反応と見なされています。

主要な突破点:防御シーン向けの「ノイズ除去」と「強化」

一般的な大規模モデルとは異なり、GPT-5.4-Cyber は深い防御的微調整を施された専用ツールです:

  • バイナリ逆コンパイル: このモデルは高度なセキュリティワークフローをサポートし、専門家がコンパイル済みのマルウェアを分析し、ソフトウェアの脆弱性をスキャンできるようにしています。

  • 高権限許可: 合法的な防御者にとっての利便性を高めるために、OpenAIはこのモデルの拒否境界を低下させ、敏感なセキュリティタスクを処理する際に頻繁に「セキュリティブロック」が発動しなくなるようにしています。

  • 能力評価: 内部評価では、このモデルは「高い」ネットワーク能力レベルに分類されており、複雑なバグ修正や脅威モデリングにおいて非常に信頼性が高いことを意味します。

image.png

戦略的配置:「単独戦闘」から「エコシステムの耐性」へ

OpenAIのセキュリティ戦略は、単なるモデル出力から体系的なエコシステム出力へと変化しています:

  1. Codex Securityツール: 今年導入されたこのツールは、3000以上の深刻な脆弱性を修復し、コードベースの自動監視を実現しました。

  2. TACの拡充: 客観的な基準であるMFAなどの強制本人確認を通じて、アクセス者を審査することで、重要なインフラ保護者に最も先進的なAI能力を優先的に提供することを目的としています。

  3. 資金支援プログラム: 2023年から継続してサイバー安全支援プログラムに投資し、第3者研究者に大規模モデルを使って防御ツールの自動化を向上させる支援を行っています。

業界視点:防御能力は攻撃リスクと「競争」しなければならない

OpenAIは公告で、防御能力はモデルの能力と同時に拡張しなければならないと明言しています。AIが徐々に悪意ある攻撃者によって利用されるようになると、GPT-5.4-Cyber の発表は、防御側の立場を示すものです:

  • 繰り返し配備: このモデルの権限がよりオープンになっているため、OpenAIは非常に慎重な配備戦略を採用しており、現在は審査を受けたサプライヤーや研究者だけに限定されています。

  • アクセスの民主化: TACプログラムを通じて、最も先端的な防御技術が少数の機関に独占されることを防ぐことを確保しています。

結論:AI時代におけるサイバーセキュリティの「認可制度」

GPT-5.4-Cyber がバイナリ逆コンパイル機能を持って登場すると、AIによるサイバーセキュリティの競争は単なる「脆弱性の発見数」から、「実戦的な防御の深さ」へと移行しています。セキュリティ専門家にとって、これは単なる賢い補助者ではなく、下位のバイナリロジックを処理できるデジタル同士としての存在です。