阿里大模型團隊今日正式發佈圖像生成與編輯統一模型 Wan2.7-Image。相比前代,該模型在人像定製化、色彩控制以及長文本渲染方面實現了質的飛躍,旨在打破 AI 生成圖像中常見的“千篇一律”感。

目前,該模型已在阿里雲百鍊平臺上線 API,並在萬相官網開放體驗。

image.png

核心升級:虛擬“捏臉”與精準調色盤

Wan2.7-Image 引入了多項行業領先的差異化功能,極大提升了創作的自由度:

  • 千人千面: 強化了虛擬角色“捏臉”能力。用戶可以通過提示詞精準控制骨相、眼形(如杏仁眼、丹鳳眼)及五官細節,徹底告別標準化的 AI 臉。

  • 精準調色盤: 全新支持色彩控制功能。用戶可以提取參考圖的顏色佔比,無論是梵高的明黃還是畢加索的冷藍,都能精準復刻到新生成的作品中。

  • 3K Token 超長文本渲染: 解決了 AI 寫字的難題,支持多達12種語言,最高可渲染一頁 A4紙大小的複雜文字、表格或公式,且達到印刷級質量。

在圖像編輯領域,Wan2.7-Image 推出了“交互式編輯”功能。用戶只需通過精準框選,即可在指定區域實現元素的添加、對齊、移動甚至像素級的邏輯替換(例如:將冰塊替換爲水果,同時保持環境光影不變)。

image.png

此外,該模型支持多達12張的組圖生成,並能確保多主體(如合影、傢俱組合)在不同畫面中的風格與特徵高度統一。

阿里表示,Wan2.7-Image 採用了生成與理解統一的模型架構。通過在共享隱空間(Latent Space)實現語義映射,模型不再是盲目地猜測文字對應的像素,而是真正具備了底層語義認知。

在2026年的影像創作賽道上,Wan2.7-Image 的出現預示着 AI 繪畫正從“抽卡式”隨機生成進化爲“工業級”精密控制。無論是短劇分鏡、電商廣告還是社交變裝,這種高精度的編輯能力都將大幅降低專業內容的生產門檻。