近日,OpenAI 推出的新視頻生成平臺 Sora 引起了廣泛討論。該平臺基於 OpenAI 最新的 Sora 2 模型,能夠生成高仿真度的視頻,甚至僞造著名人物的影像,包括馬丁・路德・金、邁克爾・傑克遜和布萊恩・克蘭斯頓等。這些視頻不僅涉及名人,有時還會利用版權角色如海綿寶寶和皮卡丘,製作出令人震驚或有害的內容。
在 Sora 平臺上,用戶對生成的視頻有一定的認知,明白這些內容並不是真實的。然而,一旦這些視頻被分享至其他社交平臺,觀衆就很難判斷這些內容的真實性。Sora 的高度仿真能力不僅可能誤導觀衆,還揭示了人工智能標籤技術的嚴重缺陷,尤其是在 OpenAI 參與監管的 C2PA 認證系統方面。
C2PA 認證,也被稱爲 “內容憑證”,是由 Adobe 推動的一項技術,旨在爲圖像、視頻和音頻等內容附加不可見但可驗證的元數據。這些元數據提供了關於內容的創作或編輯時間和方式的詳細信息。然而,目前這一系統在實際應用中卻未能有效保護用戶免受虛假信息的影響。
OpenAI 作爲內容來源和真實性聯盟(C2PA)的成員,參與了這一技術的開發,但 Sora 所展示的虛假內容無疑對這一認證系統的有效性提出了質疑。對於那些可能被誤導的觀衆來說,Sora 的出現不僅是技術的一次突破,更是對內容真實性的重大挑戰。
劃重點:
🔍 Sora 是 OpenAI 推出的新視頻生成平臺,能夠高度仿真地僞造名人影像。
⚠️ 用戶意識到視頻不真實,但分享後難以判斷其真實性,可能誤導觀衆。
📉 C2PA 認證技術未能有效保護用戶,面臨着虛假內容氾濫的挑戰。
