グーグルは現地時間の2月12日に、自社のAIチャットボット「Gemini」が大規模な「蒸留攻撃(Distillation Attack)」に直面していることを明らかにしました。攻撃者は大量の繰り返し質問を通じてモデルから内部メカニズムを漏洩させようとしており、一度の攻撃で提示回数が10万回を超えるケースも確認されています。この出来事は、業界において大規模モデルのセキュリティに対する高い関心を引き起こしました。この種の攻撃は、Geminiの出力パターンと論理を繰り返し試して、そのコアな内部メカニズムを特定しようとするもので、最終的にはモデルをクローンしたり、自前のAIシステムを強化する目的を持っています。

グーグルによると、この攻撃は商業的な動機を持つ行動者によって行われており、背後には競争優位を求めるAIのプライベート企業や研究機関が多く関与しています。攻撃源は世界中の多くの地域に及んでいますが、グーグルはさらに詳しい容疑者に関する情報を公表していません。グーグルの脅威インテリジェンスチームのチーフアナリストであるジョン・ホトキエスト氏は、今回の攻撃規模が危険なサインを示しており、このような蒸留攻撃が中小企業向けのカスタムAIツールの分野へと広がり始めている可能性があると指摘しました。
彼は、グーグルの経験を「炭坑のオウジロメイド」と例え、大きなプラットフォームにおけるセキュリティの危機が、今後のAI業界全体に広範なリスクを示唆していると述べました。グーグルは、蒸留攻撃が本質的に知的財産の窃盗であり、大規模言語モデルの開発に数十億ドルを投資した各大手テクノロジー企業にとって、モデルの内部メカニズムは重要な特許資産であると強調しています。
業界ではすでにこのような攻撃を識別・ブロックする仕組みが導入されていますが、主流の大規模モデルサービスが一般公開されている性質上、根本的なリスクを回避することはできません。今回の攻撃の核心的な目標は、Geminiの「推論」アルゴリズム、つまり情報処理の核心的な意思決定メカニズムを抜き出すことでした。
