最近,谷歌的研究人員發出了警告:生成式人工智能(GenAI)正在用虛假內容毀掉互聯網。這不僅是一個警示,更像是一次自我反省。
諷刺的是,谷歌在這場“真假大戰”中扮演了雙重角色。一方面,它是生成式AI的重要推動者,另一方面,它也是虛假信息的製造者。谷歌的AI概述功能曾出現過“披薩上塗膠水”、“吃石頭”等荒謬建議,這些錯誤信息最終不得不被手動刪除。

谷歌的研究團隊深入調查了200篇關於生成式AI濫用的新聞報道,發現篡改人類肖像和僞造證據是最普遍的濫用方式。這些行爲的目的無非是影響公衆輿論、詐騙或牟取利益。生成式AI的風險雖然還沒有上升到“威脅生存”的地步,但卻是當下正在發生的事情,未來可能會變得更糟。
研究人員發現,大多數GenAI濫用案例都是對系統的正常使用,並沒有“越獄”行爲。這類“常規操作”佔了9成。GenAI的廣泛可用性、可訪問性和超現實性,使得層出不窮的、較低級別的濫用形式成爲可能。生成虛假信息的成本實在是太低了!

谷歌的研究素材大量來自於媒體報道,這是否意味着研究結論帶有媒體的偏見?媒體更傾向於報道聳人聽聞的事件,這可能會導致數據集偏向特定類型的濫用。404Media指出,還有大量的我們尚未意識到的生成式人工智能的濫用沒有被報道。
AI工具的“圍欄”可以用一些提示巧妙避過。例如,ElevenLabs的人工智能語音克隆工具可以高度逼真地模仿出同事或明星的聲音。Civitai用戶可以創建人工智能生成的名人圖像,儘管該平臺有禁止NCII(未經同意的私密圖片)的政策,但同樣沒有什麼能阻止用戶在自己的機器上使用開源工具來生成NCII。
當虛假信息氾濫,互聯網上的混亂狀況會對人們辨別真假的能力帶來巨大的考驗。我們將陷入一種經常性的懷疑,「這是真的嗎」?如果不加以解決,人工智能生成的內容對公開數據的污染還可能會阻礙信息檢索,扭曲對社會政治現實或科學共識的集體理解。
對於生成式AI所帶來的虛假內容的泛濫,谷歌起到了推波助瀾的作用。多年前射出的子彈,今日終於擊中了自己的眉心。谷歌的這次研究,或許是一種自我救贖的開始,也是對整個互聯網社會的一次警醒。
論文地址:https://arxiv.org/pdf/2406.13843
