近日,生成式人工智能初創公司 Runway 正式推出其最新的視頻生成模型 ——Gen-4.5。該模型在視覺準確性和創意控制方面相比之前版本有了顯著提升,致力於爲用戶提供更高質量的高清視頻生成體驗。用戶只需輸入簡短的文本提示,就可以生成符合需求的動態視頻,涵蓋複雜的場景與生動的人物角色。

Gen-4.5採用 Nvidia GPU 進行預訓練、後期訓練以及推理,使得視頻生成的精度和風格控制達到了新的高度。根據市場分析師 Arun Chandrasekaran 的觀點,儘管 Runway 在視頻生成領域不斷進步,但其面臨着來自 OpenAI 的 Sora 和谷歌的 Veo3.1等競爭對手的挑戰。
值得注意的是,Gen-4.5主要針對社交媒體短視頻的創作,適合用於 Instagram 等平臺,而谷歌的 Veo 則更傾向於製作長達數分鐘的產品營銷視頻。儘管面臨不同的市場需求,Runway 的 Gen-4.5在物體和角色的一致性質量上做出了很大改善,尤其在重現複雜視頻場景方面表現突出。
然而,隨着生成模型的逼真程度不斷提高,區分虛假與真實內容的難度也在加大。這種情況下,業界對於是否應該標明 AI 生成內容的立場出現了分歧。Forrester 的分析師 William McKeon-White 建議在視頻末尾添加免責聲明,表明內容使用了 AI 技術,這一觀點在遊戲公司中存在不同看法。
此外,Runway 的 Gen-4.5模型也暴露出一些限制。例如,它在因果推理方面表現不佳,有時會出現效果先於原因的情況,或物體在時間上不連貫等問題。儘管如此,Runway 在記憶和物體互動的改進上依然在不斷努力,期待未來能夠推出更加持久和一致的視覺效果。
劃重點:
- 🎥 Runway 的 Gen-4.5模型使視頻生成更具創意和視覺一致性。
- 📱 該模型主要針對社交媒體短視頻,與其他競爭對手針對長視頻的戰略有所不同。
- ⚖️ AI 生成內容的真實性問題引發了行業內部的討論,建議添加免責聲明以區分真實與虛假。
