近日,Sakana AI 的科學家們在人工智能領域取得了突破性進展,他們首次成功利用視覺語言基礎模型(vision-language foundation models,FMs) 實現了人工生命(Artificial Life,ALife) 模擬的自動搜索。這項名爲 ASAL(Automated Search for Artificial Life,人工生命自動搜索) 的新方法,爲人工生命領域的研究帶來了革命性的變革,有望加速該領域的發展。
傳統的人工生命研究主要依賴人工設計和試錯,而 ASAL 的出現改變了這一現狀。該方法的核心是通過基礎模型來評估模擬產生的視頻,從而自動搜索有趣的 ALife 模擬。ASAL 主要通過三種機制來發現生命形式:

有監督的目標搜索:通過文本提示來尋找產生特定現象的模擬。例如,研究人員可以設定“一個細胞”或“兩個細胞”這樣的目標,讓系統自動找出符合條件的模擬。 開放性搜索:尋找能產生時間上無休止的新穎性的模擬。這種方式有助於發現那些對人類觀察者來說持續有趣的模擬。啓發式搜索:尋找一組有趣且多樣的模擬,從而揭示 “外星世界”。
ASAL 的通用性使其能夠有效地應用於多種 ALife 基質,包括 Boids、粒子生命(Particle Life)、生命遊戲(Game of Life)、Lenia 和神經元胞自動機(Neural Cellular Automata)。研究人員在這些基質中發現了前所未見的生命形式,例如,Boids 中出現了奇異的羣集模式,Lenia 中出現了新的自組織細胞,以及類似康威生命遊戲的開放式細胞自動機。
此外,ASAL 還支持對以往只能進行定性分析的現象進行定量分析。基礎模型具有與人類相似的表示能力,這使得 ASAL 能夠以一種更符合人類認知的方式來衡量複雜性。例如,研究人員可以通過測量 CLIP 向量在模擬過程中的變化速度來量化 Lenia 模擬中的平臺期。

該研究的創新之處在於 利用了預訓練的基礎模型,特別是 CLIP(對比語言-圖像預訓練) 模型,來評估模擬的視頻。CLIP 模型通過對比學習,將圖像和文本的表示對齊,使其能夠理解人類對複雜性的概念。ASAL 的方法並不侷限於特定的基礎模型或模擬基質,這意味着它可以與未來的模型和基質兼容。
研究人員還通過實驗驗證了 ASAL 的有效性,他們使用不同的基礎模型(如 CLIP 和 DINOv2)以及不同的 ALife 基質進行測試。結果表明,CLIP 在生成符合人類認知的多樣性方面略優於 DINOv2,但兩者都明顯優於低級別的像素表示。這突顯了使用深度基礎模型表示來衡量人類多樣性概念的重要性。
這項研究爲人工生命領域開闢了新的道路,使得研究人員能夠將精力集中於更高層次的問題,例如,如何最好地描述我們希望出現的現象,然後讓自動化的過程去尋找這些結果。ASAL 的出現,不僅能夠幫助科學家發現新的生命形式,而且能夠定量分析生命模擬中的複雜性和開放性。最終,這項技術有望幫助人們理解生命的本質,以及生命在宇宙中可能存在的所有形式。
項目代碼:https://github.com/SakanaAI/asal/
論文地址:https://arxiv.org/pdf/2412.17799
