最近,加州大學伯克利分校的一項研究顯示,由大型語言模型(LLM)進行的自動提示修改,會顯著降低 DALL-E3生成圖像的質量。該研究對1,891名參與者進行了一項在線實驗,目的是探討這種自動重寫對圖像質量的影響。

機器人 AI繪畫

實驗中,參與者被隨機分配到三個組別:DALL-E2、DALL-E3和帶有自動提示修訂的 DALL-E3。參與者需要寫十個連續的提示,儘可能準確地再現一個目標圖像。結果顯示,DALL-E3在圖像生成上確實優於 DALL-E2,生成的圖像與目標的匹配度明顯提高。然而,當使用自動修改的提示時,DALL-E3的表現卻下降了近58%。雖然使用提示重寫的 DALL-E3用戶仍然優於使用 DALL-E2的用戶,但這種優勢明顯減小。

研究者發現,DALL-E3與 DALL-E2之間的表現差距主要源於兩個因素:一是 DALL-E3技術能力的提升,二是用戶在提示策略上的適應性。尤其是 DALL-E3用戶使用的提示更長、更具語義相似性,並且用詞更加描述性。參與者並不知道自己在使用哪個模型,但他們的表現已經證明了這種適應性。

研究人員認爲,隨着模型的不斷進步,用戶也會不斷調整他們的提示,以便更好地利用最新模型的能力。這表明,雖然新模型的出現不會使提示變得過時,但提示仍然是用戶挖掘新模型潛力的重要手段。

這項研究提醒我們,自動化工具並非總是能夠幫助用戶提升表現,反而可能限制他們發揮模型的最大潛力。因此,在使用 AI 工具時,用戶應該考慮如何最有效地調整自己的提示,以獲得更理想的圖像生成效果。

劃重點:

🖼️ 自動提示修訂導致 DALL-E3圖像質量下降近58%,限制用戶表現。  

🤖 實驗發現,儘管 DALL-E3優於 DALL-E2,但自動修改提示後,效果減弱。  

🔍 用戶需根據模型的進步,調整提示策略,以充分發揮新模型的潛力。