最近、OpenAIは、人工知能モデルChatGPTがサイバー犯罪者によって悪用され、マルウェア開発、虚偽情報拡散、フィッシング攻撃など様々な悪質な活動に使われていると警告を発しました。

新たな報告書によると、2024年初頭以降、OpenAIは世界中で20件以上の欺瞞的な操作を阻止しており、AIの悪用という深刻な傾向が明らかになっています。これらの活動には、マルウェアのデバッグだけでなく、偽のソーシャルメディアアカウントのためのコンテンツ作成や、魅力的なフィッシング情報の生成なども含まれています。

開発者 ハッカー (3)

OpenAIは、これらのツールが人類全体の利益に役立つようにすることを使命としており、モデルの悪用を発見、予防、阻止することに取り組んでいます。特に選挙イヤーである今年は、国家関連のサイバー攻撃や隠れた影響工作に対抗するための堅牢な多層防御システムの構築が非常に重要だと強調しています。これらの工作は、ソーシャルメディアなどのプラットフォームで虚偽の宣伝を行うために、OpenAIのモデルを利用する可能性があります。

報告書によると、OpenAIは2024年5月の脅威報告の後も、マルウェアのデバッグ、ウェブサイト記事の作成、偽のソーシャルメディアコンテンツの生成など、様々な活動を阻止し続けています。これらの活動の複雑さは様々で、単純なコンテンツ生成要求から、複雑な複数段階のソーシャルメディア分析と対応行動まで含まれています。中には、AIが使用されたフェイクニュースに関連する事例もありました。

サイバー犯罪者がどのようにAIを利用しているかをより深く理解するために、OpenAIはこれらの阻止された活動を分析し、いくつかの初期的な傾向を特定しました。これらの傾向は、より広範な脅威環境におけるAIに関する議論に重要な情報を提供すると考えられます。

OpenAIの分析では、AIは防御者にとって強力な能力を提供し、疑わしい行動を特定し分析することができると述べられています。調査プロセスには依然として人間の判断と専門知識が必要ですが、これらの新しいツールにより、OpenAIは特定の分析手順にかかる時間を数日から数分に短縮することができました。さらに、サイバー犯罪者は通常、基本的なツールを入手した後、OpenAIのモデルを活動の中間段階で使用し、「完成品」を展開してからインターネット上に公開します。

サイバー犯罪者はOpenAIのモデルの使用を進化させ、試行錯誤を続けていますが、これによって新型マルウェアの作成やウイルス性のオーディエンス構築において実質的な進歩を遂げたという証拠はありません。実際、今年の選挙関連コンテンツにおいて、OpenAIが発見した欺瞞的な活動は、広範なソーシャルメディアのインタラクションや継続的な注目を集めていませんでした。

今後、OpenAIは、インテリジェンス、調査、セキュリティ研究、政策チームと協力して、悪意のある行為者が高度なモデルを有害な活動にどのように利用する可能性があるかを予測し、それに応じて法執行活動を計画していきます。彼らは、発見を内部セキュリティチームと共有し、利害関係者と協力し、業界の同業者や研究界と連携して新たなリスクに対処し、集団的安全とセキュリティを維持すると述べています。

要点:

📌 OpenAIは、サイバー犯罪者がChatGPTを利用してマルウェア開発や虚偽情報拡散を行っていることを発見しました。

🔒 2024年初頭以降、OpenAIは20件以上の欺瞞的な操作を阻止し、サイバーセキュリティを守ってきました。

🤖 AIモデルは悪用されていますが、現時点ではサイバー犯罪者のマルウェア作成能力を著しく向上させていません。