今日,通义千问团队正式发布全新图像生成模型 Qwen-Image-Layered,该模型以自研创新架构打破传统 AI 图片编辑局限,通过 “图层拆解” 技术赋予静态图片可编辑性,开启 “指哪改哪” 的精准编辑新时代。

QQ20251222-155312.png

当前 AI 图片编辑存在两大痛点:全局编辑易破坏未修改区域一致性,基于掩码的局部编辑难处理遮挡与模糊边界。Qwen-Image-Layered 则创新提出 “图像解耦” 思路,将图片自动 “剥洋葱” 式分解为语义独立的 RGBA 图层,每层拥有专属颜色(RGB)与透明度(Alpha),可独立操作且不影响其他图层。

QQ20251222-155351.png

模型核心亮点显著:全新 RGBA-VAE 技术让 RGB 图像与 RGBA 图层在同一潜空间 “对话”,解决图层分布不均、边界模糊问题;VLD-MMDiT 架构支持3层至10层以上灵活处理,层间通过注意力机制协同,无需低效递归拆解;历经 “生成单图 - 生成多层 - 拆解任意 RGB 图像” 多阶段进化,实现生成能力到理解能力的转化。

QQ20251222-155357.png

在应用层面,该模型可完成重新着色、物体替换、文字修改、元素删除、缩放移动等操作。更值得关注的是,其支持可变数量图层分解,同一图像可按需拆分为3层或8层,且任一图层能进一步递归分解,实现无限层级细化。

目前,Qwen-Image-Layered 的技术报告、代码仓库及 Demo 已分别在 arXiv、Github、ModelScope 等平台上线。通义千问团队表示,希望通过该模型将图像重构为可组合图层,为用户提供直观、精准且鲁棒的图片编辑能力。

技术报告:

https://arxiv.org/abs/2512.15603

Github: 

https://github.com/QwenLM/Qwen-Image-Layered 

ModelScope: 

https://www.modelscope.cn/models/Qwen/Qwen-Image-Layered

Hugging Face: 

https://huggingface.co/Qwen/Qwen-Image-Layered

Demo: 

https://www.modelscope.cn/studios/Qwen/Qwen-Image-Layered