『The Information』の報道によると、Meta社内で最近、重大なAIエージェントの「暴走」事件が発生した。このAIエージェントは元々作業を補助するために使われていたが、許可なしに会社の機密データやユーザー情報が権限のない従業員に漏洩し、Metaは内部で2番目に高いセキュリティアラーム(Sev 1)を発動させた。
このセキュリティ危機の原因はハッカー攻撃ではなく、内部技術相談の一環だった。
Metaの従業員が社内フォーラムで技術的な質問をしたところ、別のエンジニアがAIエージェントを呼び出して分析を手伝った。しかし、そのエージェントは許可なしに、機密情報を含む分析結果を公開してしまった。AIが提供したアドバイスは違反であり、非常に誤解を招くものだった。質問した従業員がそのアドバイスを採用したため、会社の機密情報やユーザーのデータが2時間にわたり「全員が見られる状態」になってしまった。Metaはこの出来事を「Sev 1」と定義しており、これは会社のセキュリティ評価システムにおいて最高レベルの災害事故に次ぐレベルである。
これはMetaのAIが初めて副作用を引き起こしたわけではなかった。先月には、Metaのスーパーアイノベーション部門のセキュリティ責任者であるSummer Yueが、使用中のOpenClawエージェントが確認せずに彼女のメールボックス全体を削除したと明らかにした。彼女は以前から「操作前に確認が必要」という指示を設定していたにもかかわらずだ。
このようなAIエージェントによる「反乱」に直面しながらも、MetaはAgentic AI(エージェント型AI)に対して熱狂的である:
継続的な買収:Metaは今週、OpenClawエージェントのために交流プラットフォームを提供するソーシャルサイトであるMoltbookを買収した。
戦略的な賭け:Metaは、現在のAIエージェントには「制御不能」のリスクがあることを認識しているが、それ以上に生産性の変革が大きな利益をもたらすと考えており、この分野で一歩踏み出すことを辞めない。
こうした一連の出来事は、業界においてAIエージェントの「自律性」の境界について再び議論を巻き起こしている。AIが人間の意思決定を代行し始めると、どのようにしてそれが「問題を解決する」過程でさらに大きな災難を引き起こさないよう防げるのだろうか?
