カナダ・モントリオールで開催された国際人工知能関連会議(IJCAI)の期間中に、アントグループがシンガポール科学技術研究局と共同で「深層偽造検出・位置特定・説明性」に関するワークショップを開催しました。この会議では、アントグループとスタンフォード大学がそれぞれ2つの深層偽造データセットをオープンソース化し、人間の顔や動作の偽造、音声クローンなどの多様なモードをカバーしています。これにより業界に重要な基礎データリソースが提供され、AIセキュリティ技術の発展が促進されます。

     このワークショップは、Deepfake(深層偽造)の識別を焦点としており、中国、アメリカ、オーストラリア、ブラジル、シンガポールなど多くの国から著名な機関の研究者や業界専門家が最新の技術と応用成果を共有しました。

     アントグループがIJCAIの「深層偽造検出チャレンジ」に使用する180万件のトレーニングデータセット(DDL-Datasets)が、正式にグローバルな研究者向けにオープンソース化されました。このデータセットは、顔の偽造、動画の改変、音声のクローンの3つの危険なシナリオを含んでおり、80種類以上の偽造手法をカバーしており、AIによる偽造の画面位置や時間のポイントを明確にラベル付けしています。これはアルゴリズムの説明性を向上させる助けになります。研究者はModelscope(磨搭コミュニティ)からダウンロードできます。

QQ20250818-135928.png

図:アントグループの国際アルゴリズム責任者であるリー・ジャンシューが深層偽造位置特定データセットについて紹介

    スタンフォード大学、グーグル、カリフォルニア大学バークレー校が共同でオープンソース化したビデオデータセット「DeepAction」には、7つの大規模モデルによって生成された2,600本の人体動作のビデオと対応するリアルなシーンが含まれています。これらのビデオには歩行、走行、調理などの日常的な行動が描かれています。研究者はHugging Face(抱抱臉コミュニティ)からダウンロード可能です。また、研究チームが発表した論文『AI生成人体動作検出』(Human Action CLIPs: Detecting AI-Generated Human Motion)は、このテーマのワークショップで最優秀論文に選ばれました。この論文では、マルチモーダルな意味埋め込みに基づく鑑別技術が提案されており、本物の人間の動作とAIによって生成された動作を正確に区別することができます。この方法は高いロバスト性を持ち、例えば解像度の調整や動画の圧縮などのデータ改ざん手段が検出アルゴリズムに与える干渉を効果的に回避できます。

    オーストラリア・モナッシュ大学のアビナフ・ダール教授は、脳波データを通じて研究チームが異なる文化的背景を持つ人々がAI偽造ビデオに対して異なる感覚を持っていることを発見したと述べました。ビデオ言語が参加者の慣れ親しんだ英語であり、俳優が似た人種背景を持つ場合、真実のビデオと深層偽造ビデオを区別する能力がより高かったのです。この研究は、グローバルな多様な背景において深層偽造分析を行うための今後の探求への道を開きました。