隨着人工智能技術的不斷進步,僞造圖像和視頻的難度越來越低,深度僞造(deepfake)現象愈發嚴重,如何識別這些虛假內容成了一個亟待解決的問題。近期,賓漢姆頓大學的研究團隊對此進行了深入探討,他們利用頻域分析技術,揭示了 AI 生成圖像的特徵,從而幫助人們識別虛假信息。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
這項研究由電氣與計算機工程系的教授 Yu Chen 以及博士生 Nihal Poredi 和 Deeraj Nagothu 主導,另外還包括來自維吉尼亞州立大學的碩士生 Monica Sudarsan 和教授 Enoch Solomon 的參與。
研究團隊創造了成千上萬張使用流行的生成 AI 工具製作的圖像,比如 Adobe Firefly、PIXLR、DALL-E 和 Google Deep Dream。然後,他們採用信號處理技術分析這些圖像的頻域特徵,從而找出真實圖像與 AI 生成圖像之間的差異。
通過使用名爲生成對抗網絡圖像認證(GANIA)的工具,研究人員能夠識別出 AI 生成圖像中出現的僞影。這些僞影是因爲 AI 在生成圖像時使用的上採樣技術留下的,簡單來說就是通過克隆像素來放大文件,但這樣會在頻域中留下 “指紋”。Chen 教授表示:“真實相機拍攝的照片包含來自整個環境的所有信息,而 AI 生成的圖像則更多集中於用戶的請求,因此無法準確捕捉背景環境的細微變化。”
除了識別圖像外,團隊還開發了一款名爲 “DeFakePro” 的工具,用於檢測僞造的音頻和視頻。這個工具利用了電網頻率(ENF)信號,這種信號是在記錄過程中,由電力的微小波動而產生的。通過分析這些信號,DeFakePro 可以判斷出一段記錄是否被篡改,進一步對抗深度僞造的威脅。
Poredi 強調,識別 AI 生成內容的 “指紋” 非常重要,這將幫助建立一個認證平臺,確保視覺內容的真實性,從而減少虛假信息帶來的負面影響。他指出,社交媒體的廣泛使用使得虛假信息問題更加嚴峻,因此確保在線共享數據的真實性至關重要。
在這項研究中,團隊希望爲公衆提供更多工具,以便讓大家更容易區分真實與虛假內容,提升信息的可信度。
論文地址:https://dx.doi.org/10.1117/12.3013240
劃重點:
1. 🖼️ 研究團隊通過頻域分析技術,成功識別 AI 生成與真實圖像之間的差異。
2. 🔍 開發了 “DeFakePro” 工具,能夠檢測僞造音頻和視頻的真實性。
3. 🚫 強調確保在線共享數據真實性的重要性,以應對日益嚴重的虛假信息問題。