Luma Labs 於 3 月 23 日發佈圖像生成模型 Uni-1,這是該公司基於 Unified Intelligence 架構推出的首款公開模型。官網已開放免費試用,API 定價同步公佈,企業接入通道將逐步上線。

架構變化:從擴散模型到自迴歸
Uni-1 放棄了當前主流的擴散模型路線,轉而使用 decoder-only 自迴歸 Transformer,將文本 token 與圖像 token 交錯排列成單一序列,在同一個前向傳播中完成推理和像素生成。
Luma CEO Amit Jain 解釋,傳統方案通常是先用語言模型規劃、再交給擴散模型生成,兩個階段之間存在信息損耗。Uni-1 的設計目標是消除這個斷層。
Jain 此前任職 Apple,參與過 Vision Pro 工程工作。
功能:參考圖控制與跨風格生成
Uni-1 支持單張或多張參考圖引導生成,可保留人物身份、姿勢和構圖。官方測試顯示,在處理角色一致性和人像控制時,多參考圖模式表現穩定。
模型聲稱支持 76 種視覺風格,覆蓋寫實攝影、漫畫、浮世繪等類別。
演示中有一個場景:輸入"畫一張金門大橋信息圖",模型自動規劃佈局,生成橋樑結構圖並標註"1711 Meters"等數據,內部推理過程實時可見。
基準測試:空間推理與參考生成領先

Luma 公佈的數據顯示,Uni-1 在 RISEBench 推理基準上總分 0.51,高於 Google Nano Banana 2 的 0.50 和 OpenAI GPT Image 1.5 的 0.46;空間推理單項 0.58,邏輯推理 0.32,後者約爲 GPT Image 的兩倍。
ODinW-13 物體檢測得分 46.2 mAP,接近 Google Gemini 3 Pro 的 46.3。
人類偏好 Elo 排名方面,Uni-1 在整體偏好、風格與編輯、參考生成三項排名第一,文生圖單項排名第二。
定價
API 按 token 計費:輸入文本 $0.50/百萬 token,輸入圖像 $1.20/百萬 token,輸出文本與思考鏈 $3.00/百萬 token,輸出圖像 $45.45/百萬 token。
換算爲單張圖像:文生圖(2048px)約 $0.0909,帶單張參考圖的編輯約 $0.0933, 8 張參考圖約 $0.1101。
VentureBeat 報道稱,在 2K 分辨率企業場景下,Uni-1 成本比 Google Nano Banana 2 低 10% 至 30%。
背景
Luma Labs 此前以視頻生成產品 Dream Machine(Ray3 系列)爲主要業務,今年 3 月 5 日發佈了基於 Unified Intelligence 架構的 Luma Agents 創意代理平臺。Uni-1 是該架構首次在靜態圖像產品上落地。
發佈數小時內,相關帖子在 X 平臺獲得超過 230 萬次瀏覽。Luma 表示後續將推出視頻和音頻版本,具體時間未公佈。
試用地址:lumalabs.ai/uni-1
