3月18日,Midjourney正式發佈其V8模型的早期版本。作爲一次重大的架構更新,V8模型在Alpha網站上線後立即引發行業關注,其圖像生成速度較前代提升約5倍。

此次更新引入了原生渲染2K分辨率圖像的--hd模式,並新增旨在增強圖像連貫性的--q4參數。技術層面,V8顯著提升了對複雜、長文本指令的遵循能力,尤其在處理圖像內嵌文本渲染時,通過引號識別機制實現了更高的準確率。

儘管性能大幅躍升,但Midjourney仍堅持1000%的純擴散模型路徑。在與谷歌Nano Banana及OpenAI GPT Image1.5等融入自迴歸(AR)組件的混合架構模型對比中,V8在處理極高邏輯要求的抽象指令(如特定角色位置顛倒)時仍存在侷限。

QQ20260319-105232.jpg

爲此,官方建議追求極致寫實的用戶配合--raw模式或風格參考功能使用。值得注意的是,性能的提升伴隨着成本轉嫁:在運行高清及高連貫性模式時,單次作業耗時與費用均達到標準模式的4倍,且首發階段暫不支持非耗時的“放鬆模式”。

在當前AI繪畫領域加速邁向自迴歸與擴散模型融合的背景下,Midjourney V8的發佈標誌着擴散模型在效率極限上的進一步突破。然而,高昂的算力溢價與複雜邏輯理解的瓶頸,也反映出純擴散架構在面對日益增長的精確控制需求時所面臨的挑戰。