根據 Techradar 的最新研究報告,一種利用 AI 深度僞造(Deepfake)語音的新型詐騙正在全球範圍內激增。一項針對美、英、加、法、德、西六國超過 1.2 萬名消費者的調查顯示,這種模擬熟人聲音的來電已成爲嚴重的社會威脅。
調查發現,約四分之一的美國受訪者在過去一年內接到過此類 AI 僞造來電。更令人擔憂的是,另有 24% 的人表示,自己根本無法從聽感上區分電話裏的聲音究竟是真人還是人工智能。詐騙分子正利用低成本的生成式 AI 工具,將聲音克隆技術“武器化”,專門冒充受害者的親屬或信任的聯繫人。
報告特別指出,這類詐騙對 55 歲以上的老年羣體危害最大。由於該羣體識別技術僞裝的能力相對較弱,人均經濟損失已達 1298 美元,是年輕受害者的三倍。目前,此類詐騙數量正以每年 16% 的複合增長率持續上升,形勢不容樂觀。
面對日益嚴峻的威脅,電信運營商的角色受到了廣泛關注。多數受訪者認爲詐騙分子目前在技術較量中佔據上風,並呼籲政府出臺更嚴格的法規。安全專家強調,面對防禦難度極高的 AI 語音克隆,不能僅靠個人識別,運營商必須加快部署“AI 盾牌”系統,利用技術手段過濾非法合成語音,以應對這場失控的“AI 軍備競賽”。
