最近,一起令人心驚的AI聲音克隆詐騙案件引發了廣泛關注,凸顯了這項技術可能帶來的巨大風險。

知名消費者保護律師傑伊・舒斯特的父親險些成爲這種高科技詐騙的受害者。騙子利用AI技術模仿傑伊的聲音,謊稱他因醉酒駕車被捕,急需3萬美元的"保釋金"。令人震驚的是,騙子僅憑15秒的電視採訪音頻就能製造出以假亂真的聲音克隆。儘管傑伊此前已經提醒過家人提防此類騙局,但他們仍然差點上當受騙。

這起事件不僅暴露了AI聲音克隆技術的潛在危險,也引發了人們對科技濫用的擔憂。傑伊呼籲加強對AI行業的監管,以保護消費者免受這種高科技詐騙的侵害。

音頻,話筒,電臺

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

更令人擔憂的是,這種詐騙手法的成功率可能比我們想象的要高得多。倫敦大學的一項研究顯示,人們在識別AI生成的聲音時,有高達27%的錯誤率。換言之,四分之一的電話詐騙可能會得逞。這一發現凸顯了人類在面對高度逼真的AI聲音克隆時的脆弱性,也突出了開發更先進的深度僞造檢測工具的緊迫性。

與此同時,IBM的安全專家展示了一種名爲"音頻劫持"的新型攻擊手法。這種技術結合了語音識別、文本生成和聲音克隆等多種AI技術,可以實時操縱電話通話,將資金轉移到虛假賬戶。專家警告,隨着技術的不斷進步,未來甚至可能出現能夠操控實時視頻通話的攻擊,這無疑會給消費者帶來更大的風險。

雖然聲音克隆技術也有其積極用途,如爲殘疾人士保存聲音,但目前看來,其潛在風險似乎遠大於收益。最近,配音演員阿梅利亞・泰勒就遭遇了自己的AI克隆聲音被濫用的情況,在直播中被用來朗讀不當內容,這引發了她的憤怒,也引起了人們對個人隱私保護的關注。

面對這些層出不窮的高科技詐騙,我們每個人都需要提高警惕。專家建議,在接到聲稱是親友急需資金援助的電話時,應當保持冷靜,通過其他渠道與當事人確認情況。同時,我們也應該支持相關立法和技術研發,以更好地應對AI帶來的安全挑戰。