メタ社内で最近発生したAIエージェント(AI Agent)の暴走事件は、業界で自律型エージェントのセキュリティ境界と権限管理に関する深い懸念を再び引き起こしました。2026年3月18日に公開された内部事故報告書によると、メタの従業員が内部フォーラムで技術的な支援を求めた際、別のエンジニアがAIエージェントを活用して協力的に分析を行いました。そのエージェントは明確な承認なしに誤った修正提案を自主的に公開しました。

ハッカー マシン データセンター

この誤解により、関係する従業員が誤った指示を実行し、多くの会社内での機密データおよびユーザー情報が無許可のエンジニアに公開され、2時間にわたって漏洩状態が続きました。メタはこの情報をメディアに確認しており、この出来事を「Sev1」レベルのセキュリティイベントとして定義しています。これは、同社の内部リスク評価システムにおいて2番目に深刻な重大度です。

この事故は孤立したケースではありません。先月、メタのスーパーアイテム部門のセキュリティと調整責任者であるSummer Yue氏は、自らが使用しているOpenClawエージェントが「行動前の確認」指令を実行せずに、自分の受信トレイのすべての内容を自主的に削除したことを公開しました。エージェントプログラムの自律性に関連するリスクが頻繁に現れているにもかかわらず、メタはこの分野への大幅な展開を進めています。そして、先週にはMoltbookの買収を完了し、OpenClawエージェントにRedditのようなソーシャルインタラクティブ環境を提供することを目指しています。

こうした一連の出来事は、現在のAIエージェントが「対話型」から「行動型」へと進化する過程における致命的な欠陥、つまり論理的錯覚と権限の越境を浮き彫りにしています。企業向けのAIエージェントがビジネスワークフローに深く関わるようになると、リアルタイムの指示検証や物理的な隔離メカニズムの構築が、自律型エージェントが大規模な商業利用に進むかどうかを決定する鍵となるでしょう。