2025年中国インターネット大会の現地報道: 注目を集めた2025年中国インターネット大会上、大規模モデルが実用化する過程で生じるリスクについて質問された際、360グループ創業者・周鸿祎は、人工知能時代におけるサイバーセキュリティが直面する新たな課題を深く分析しました。彼は、従来のITシステムの脆弱性やデータプライバシーの漏洩問題と比べて、大規模モデルによる三大セキュリティリスクがより注意深く検討されるべきであると指摘しました。
主要リスク1: 大規模モデルの「幻覚」と無意味な言葉
周鸿祎氏は、大規模モデルに固有の「幻覚」問題が最大のリスクの一つであると強調しました。彼は説明するには、大規模モデルが理解できない事象に遭遇した場合、真面目に情報を捏造する傾向があることを指摘しました。これはエンタメシーンでは笑って済ませられますが、大規模モデルおよびその派生するスマートエージェントが産業生産、製造、政府業務など重要な分野に深く関与するようになると、このような「誤り」が深刻な結果をもたらす可能性があります。特に、スマートエージェントがさまざまなツールを操作できるようになった場合、誤った判断の危険性と影響は倍増するとの見解を示しました。
主要リスク2: 大規模モデルにより攻撃のハードルが低下する
周鸿祎氏が提示した第二のリスクは、大規模モデルがネットワーク攻撃のハードルを大幅に低下させることです。彼は、大規模モデルによりプログラミング専門家以外の人でも、単純な自然言語インタラクションを通じてプログラムを作成できることを指摘し、これにより大規模モデルへの攻撃のハードルも下がっていることを述べました。正確に構築された指示により、攻撃者は大規模モデルに企業の機密ファイルを漏洩させることが可能であり、これを「インジェクション攻撃」と呼んでいます。周氏は、今後はプログラミング知識を持たないフロントの従業員さえも、不満を持つことで企業の大規模モデルやスマートエージェントに対して攻撃を行う可能性があると表現しました。
主要リスク3: 国家レベルの高度脅威攻撃の知能化の進化
より広範な未来の視点から見ると、周氏は大規模モデルが国家レベルの高度脅威攻撃をさらに一般的かつ複雑にするだろうと指摘しました。過去には中国に対するハッカーの数が比較的少なかったですが、現在ではハッカーが自身の能力や経験を大規模モデルに組み込み、「ハッカーインテリジェントエージェント」として自分自身を構築しようとしています。十分な計算力の支援があれば、1人のハッカーが数十乃至数百個のインテリジェントエージェントを同時に操作することが可能となり、伝統的なサイバー攻防の構図を完全に変えることになります。これにより、サイバーセキュリティは「人対人」の対立から、「人対アルゴリズム、人対マシン、人対計算力」の対立へと変化します。なぜなら、ロボットのデジタルハッカーは計算力だけで十分であり、休む必要がないからです。
360の対応策:「アルゴリズムでアルゴリズムを対抗する」
これらの厳しい課題に対し、周氏は360が以下の2つの重要な対策を講じ始めていると述べました。
第一に、360は積極的にスマートエージェントセキュリティエキスパートを構築しています。これらのエキスパートは、企業が攻撃に直面した際にリアルタイムで検出と防御を実現し、「アルゴリズムでアルゴリズムを対抗する」ことを可能にします。