近日,OpenAI 推出的新视频生成平台 Sora 引起了广泛讨论。该平台基于 OpenAI 最新的 Sora 2 模型,能够生成高仿真度的视频,甚至伪造著名人物的影像,包括马丁・路德・金、迈克尔・杰克逊和布莱恩・克兰斯顿等。这些视频不仅涉及名人,有时还会利用版权角色如海绵宝宝和皮卡丘,制作出令人震惊或有害的内容。

在 Sora 平台上,用户对生成的视频有一定的认知,明白这些内容并不是真实的。然而,一旦这些视频被分享至其他社交平台,观众就很难判断这些内容的真实性。Sora 的高度仿真能力不仅可能误导观众,还揭示了人工智能标签技术的严重缺陷,尤其是在 OpenAI 参与监管的 C2PA 认证系统方面。

C2PA 认证,也被称为 “内容凭证”,是由 Adobe 推动的一项技术,旨在为图像、视频和音频等内容附加不可见但可验证的元数据。这些元数据提供了关于内容的创作或编辑时间和方式的详细信息。然而,目前这一系统在实际应用中却未能有效保护用户免受虚假信息的影响。

OpenAI 作为内容来源和真实性联盟(C2PA)的成员,参与了这一技术的开发,但 Sora 所展示的虚假内容无疑对这一认证系统的有效性提出了质疑。对于那些可能被误导的观众来说,Sora 的出现不仅是技术的一次突破,更是对内容真实性的重大挑战。

划重点:  

🔍 Sora 是 OpenAI 推出的新视频生成平台,能够高度仿真地伪造名人影像。  

⚠️ 用户意识到视频不真实,但分享后难以判断其真实性,可能误导观众。  

📉 C2PA 认证技术未能有效保护用户,面临着虚假内容泛滥的挑战。