元グーグルCEOのエリック・シュミット氏は、最近のSiftedサミットで人工知能に対する警告を発しました。彼は、人工知能技術が拡散リスクがあり、悪意のある人物に渡り、誤用される可能性があると述べました。シュミット氏は、オープンソースでもクローズドソースでも、人工知能モデルはハッカーによって攻撃され、そのセキュリティメカニズムを破壊される可能性があると指摘しました。また、これらのモデルがトレーニング中に多くの否定的な内容を学習し、致命的なスキルを習得する可能性もあると強調しました。

シュミット氏は、大手テクノロジー企業がこれらのモデルが危険な質問に答えられないように対策を講じているものの、依然として逆解析される可能性があると述べました。彼は「プロンプトインジェクション」と「脱獄」などの攻撃方法を挙げました。「プロンプトインジェクション」では、ハッカーが悪意ある命令をユーザー入力に隠し、人工知能がしてはいけない操作を実行させます。また、「脱獄」攻撃では、ハッカーが人工知能の応答を操り、安全規則を無視させるように仕向けることで、危険なコンテンツを生成します。
シュミット氏は、2023年にChatGPTがリリースされた頃の出来事を思い出しました。ユーザーは脱獄手段を使って機械の組み込みの安全指令を回避し、ChatGPTに対して不適切な指示に従うよう要求する「DAN」という「分身」を作り出しました。この行動は人工知能の安全性への懸念を引き起こし、シュミット氏は現在、このようなリスクを抑制する有効なメカニズムはまだ存在しないと述べました。
警鐘を鳴らしながらも、シュミット氏は人工知能の未来には楽観的です。彼はこの技術の潜在能力が十分に認識されていないと考えており、ヘンリー・キッシンジャー氏との共著である2冊の本に記述されている考え方を引用しました。「人間ではないが制御下にある」知能の出現が人類にもたらす大きな影響について語りました。シュミット氏は、時間が経つにつれて人工知能システムの能力が人間を上回ると信じています。
また彼は「人工知能バブル」についても言及し、現在投資家が人工知能関連企業に大量の資金を投入しているものの、インターネットバブルの歴史が繰り返されるとは考えていないと述べました。彼は投資家がこの技術の長期的な経済的収益に確信を持っており、それが彼らがリスクを取る理由だと信じています。
ポイント:
🌐 人工知能には拡散リスクがあり、悪意のある人物によって誤用される可能性がある。
💻 ハッカーはプロンプトインジェクションや脱獄を通じて人工知能モデルを攻撃できる。
🔮 シュミット氏は人工知能の未来に楽観的であり、その潜在能力が過小評価されていると考えている。
