近日,在加拿大蒙特利爾舉行的國際人工智能聯合會議(IJCAI)期間,螞蟻數科與新加坡科技研究局聯合主辦“深度僞造檢測、定位、可解釋性”研討會。會上,螞蟻數科與斯坦福大學分別開源兩大深度僞造數據集,涵蓋人類面部及動作僞造、聲音克隆等多種模態,爲行業提供了關鍵的基礎數據資源,推動AI安全技術發展。

     該研討會聚焦Deepfake(深度僞造)識別方向,來自中國、美國、澳大利亞、巴西、新加坡等多國知名機構學者與行業專家分享前沿技術和應用成果。

     螞蟻數科將用於IJCAI“深度僞造檢測挑戰賽”的180萬訓練數據集(DDL-Datasets),正式向全球研究者開源。該數據集包含人臉僞造、視頻篡改、聲音克隆三大高危場景,涵蓋80餘種僞造手法,清晰標註了AI造假的畫面位置、時間節點,有助於提升算法可解釋性。研究者可在Modelscope(磨搭社區)下載獲取。

QQ20250818-135928.png

圖:螞蟻數科國際算法負責人李建樹分享深度僞造定位數據集

    由斯坦福大學、谷歌與加州大學伯克利分校聯合開源的視頻數據集 DeepAction,包含7款大模型生成的2,600段人類動作視頻以及相匹配的真實鏡頭,這些視頻展示了行走、奔跑、烹飪等日常行爲,研究者可在Hugging Face(抱抱臉社區)下載獲取。此外,研究團隊發表的論文《AI生成人體動作檢測》(Human Action CLIPs: Detecting AI-Generated Human Motion)獲得該主題workshop最佳論文。該論文提出了一種基於多模態語義嵌入的鑑別技術,可精準區分真實人體動作與AI生成動作。該方法具有較強的魯棒性,可有效抵禦數據篡改手段(如調整分辨率、壓縮視頻等)對檢測算法的干擾。

    澳大利亞莫納什大學Abhinav Dhall教授分享了其研究團隊通過腦電圖數據發現:不同文化背景人羣對AI造假視頻存在感知差異,當視頻語言爲參與者熟悉的英語且演員來自相似種族背景時,其區分真實視頻與深度僞造視頻的表現更佳。該研究爲全球化多元背景下的深度僞造分析領域鋪就了未來探索路徑。

公開信息顯示,螞蟻數科長期關注並持續投入AI安全及風險防範,旗下安全科技品牌ZOLOZ自2017年起服務海外機構的數智化升級,目前已覆蓋超25個國家和地區,“實人認證”產品準確率達99.9%。