近日,Apple 研究人員聯手普渡大學發佈了一項名爲 DarkDiff 的攝影黑科技,旨在解決智能手機在極端微光環境下拍照滿是噪點、細節模糊的痛點。這項技術通過將生成式擴散模型直接引入相機的圖像信號處理(ISP)流程,讓手機鏡頭在黑暗中也能捕捉到驚人的細節。

傳統的夜景模式往往依賴後期算法降噪,但這常導致照片出現像油畫一樣的虛假感或嚴重的塗抹痕跡。DarkDiff 的創新之處在於它並非簡單的“後期修圖”,而是讓 AI 在圖像生成的最初階段就參與進來。它通過學習海量影像數據,能夠“預判”並恢復傳感器在暗光下丟失的紋理與色彩。爲了防止 AI “憑空捏造”不真實的物體,研究團隊還引入了局部斑塊注意力機制,確保生成的每一處細節都符合拍攝現場的實際結構。
在實際測試中,研究人員使用索尼 A7SII 模擬極暗環境,在僅有0.033秒的極短曝光下,DarkDiff 還原出的照片質量極高,甚至能與使用三腳架進行300倍時長曝光的參考照片相媲美。

儘管效果驚人,但該技術要真正裝進 iPhone 仍面臨挑戰。由於擴散模型對算力要求極高,運行起來非常耗電,未來可能需要依賴雲端處理。此外,該模型目前在識別弱光環境下的非英語文字時仍有侷限。雖然蘋果尚未透露這項技術何時正式商用,但這無疑展示了未來移動攝影在 AI 加持下的無限潛力。
