本日、アリは画像生成と編集の統一された大規模モデル「Wan2.7-Image」を正式に発表しました。このモデルは視覚的な質において飛躍的な進歩を遂げており、全链路の能力向上により、従来のAIによる画像生成で課題となっていた「標準顔」や「指示対応が難しい」という制約を打ち破りました。
AI顔から脱却し、「一人ひとり違う顔」の時代へ
Wan2.7-Imageは仮想キャラクターの顔づくり機能を大幅に強化しています。ユーザーは骨格、目元から小さな顔の特徴までを包括的にカスタマイズでき、鹅卵顔や丹鳳眼、深みのある目の窪みなどの具体的な特徴を正確に制御できます。この進歩により、これまでのAI生成の人物像の機械的な一貫性が完全に解消され、本当の個別化表現が実現されました。

「カラーパレット」と「印刷品質」のテキストレンダリング
芸術表現力において、モデルは新たな「カラーパレット」機能をサポートしています。これは参照画像の色調比率(例えばマティスの赤系やボン・ゴッホの黄系)を1クリックで抽出し、新しい作品に正確に移すことを可能にします。また、Wan2.7-Imageは長文のレンダリングにおいて驚異的な性能を示しており、最大3Kトークンの入力をサポートし、複雑な数式や表を含むA4一枚分のコンテンツを安定して出力し、印刷品質に達し、12種類の言語をサポートしています。

インタラクティブな編集とマルチ主体の一貫性
モデルは強力なインタラクティブな編集機能を備えています。要素の整列、移動、または交換を正確に選択することで実現可能です。例えば、画像内の人物を入れ替えることや、氷を果物に置き換えることが可能となり、「指さした場所を指定して変更する」ようなピクセル単位のコントロールが可能です。同時に、モデルは最大9つの画像に対してマルチ主体の一貫性をサポートしており、AIガールズグループや家具コンビネーションの生成時に、スタイルと特徴の統一を完璧に保つことができます。

基盤技術の突破と業界への恩恵
Wan2.7-Imageは先進的な生成と理解の統一構造を採用しており、共通の暗黙空間(Latent Space)で意味のマッピングを行います。これはモデルが文字を推測して画素を模倣するのではなく、下層の意味認識を持つようになったことを意味します。現在、このモデルはWan2.7-Image-proバージョンも同時に公開されており、より安定した構図と正確な理解を提供しています。

このモデルはすでに短い劇制作(一人が複数役を演じる)、EC広告(モデル画像を複数枚生成)、教育研究およびソーシャルエンタメなど多くの分野で広く利用されています。ユーザーは
