近日,生成式人工智能初创公司 Runway 正式推出其最新的视频生成模型 ——Gen-4.5。该模型在视觉准确性和创意控制方面相比之前版本有了显著提升,致力于为用户提供更高质量的高清视频生成体验。用户只需输入简短的文本提示,就可以生成符合需求的动态视频,涵盖复杂的场景与生动的人物角色。

image.png

Gen-4.5采用 Nvidia GPU 进行预训练、后期训练以及推理,使得视频生成的精度和风格控制达到了新的高度。根据市场分析师 Arun Chandrasekaran 的观点,尽管 Runway 在视频生成领域不断进步,但其面临着来自 OpenAI 的 Sora 和谷歌的 Veo3.1等竞争对手的挑战。

值得注意的是,Gen-4.5主要针对社交媒体短视频的创作,适合用于 Instagram 等平台,而谷歌的 Veo 则更倾向于制作长达数分钟的产品营销视频。尽管面临不同的市场需求,Runway 的 Gen-4.5在物体和角色的一致性质量上做出了很大改善,尤其在重现复杂视频场景方面表现突出。

然而,随着生成模型的逼真程度不断提高,区分虚假与真实内容的难度也在加大。这种情况下,业界对于是否应该标明 AI 生成内容的立场出现了分歧。Forrester 的分析师 William McKeon-White 建议在视频末尾添加免责声明,表明内容使用了 AI 技术,这一观点在游戏公司中存在不同看法。

此外,Runway 的 Gen-4.5模型也暴露出一些限制。例如,它在因果推理方面表现不佳,有时会出现效果先于原因的情况,或物体在时间上不连贯等问题。尽管如此,Runway 在记忆和物体互动的改进上依然在不断努力,期待未来能够推出更加持久和一致的视觉效果。

划重点:

- 🎥 Runway 的 Gen-4.5模型使视频生成更具创意和视觉一致性。

- 📱 该模型主要针对社交媒体短视频,与其他竞争对手针对长视频的战略有所不同。

- ⚖️ AI 生成内容的真实性问题引发了行业内部的讨论,建议添加免责声明以区分真实与虚假。