OpenAI は、ChatGPT に新しい2つの高度なセキュリティ対策を追加する公告を発表しました。これは、AI システムがウェブページや外部のアプリケーションと接続する際に増加している「プロンプトインジェクション攻撃」のリスクに対処するためのものです。この種の攻撃は第三者によって利用され、AI に悪意のある命令を実行させたり、機密情報を漏洩させたりすることがあります。これらの新対策は、既存のサンドボックスメカニズムや URL のデータ漏洩防止などの複数のセキュリティシステムの上に構築されています。

image.png

今回導入された最初のセキュリティ対策は「Lockdown Mode(ロックダウンモード)」です。これは、高いセキュリティ要件を持つユーザー向けのオプション設定であり、一般ユーザー向けではありません。このモードは、ChatGPT と外部システムとの相互作用を厳しく制限することで、データ漏洩のリスクを下げます。このモードでは、攻撃に利用されやすいツールの機能を確定的に無効化または制限します。例えば、ウェブブラウジングではキャッシュされたコンテンツのみアクセス可能となり、強力なセキュリティ保証がない機能は直接無効になります。

現在、このモードは ChatGPT Enterprise、Edu、医療版および教師版で利用可能です。管理者はワークスペースの設定からロールを作成し、ロックダウンモードを有効化できます。また、ロックダウンモード下で使用可能な外部アプリケーションおよび具体的な操作を細かく管理できます。OpenAI は今後の数ヶ月内でこのモードを消費者ユーザーにも開放する予定であり、Compliance API Logs Platform は管理者がアプリケーションの使用状況やデータ共有を監査・監督するのに役立ちます。

第二の対策として、ChatGPT、ChatGPT Atlas および Codex 内で、追加的なセキュリティリスクがある機能には一貫して **「Elevated Risk(リスクアップ)」** ラベルが付与されます。これにより、リスクの提示方法が標準化されます。