日本人工智能公司Sakana AI近日推出了Transformer²,這是一種創新的方法,旨在幫助語言模型更高效地適應多種任務。與現有的人工智能系統不同,Transformer²能夠通過兩階段學習過程解決語言模型在面對新任務時常遇到的侷限性,標誌着該領域在持續學習技術上的進步。
當前的人工智能系統通常需要在一次訓練中處理多個任務,然而它們在面對新任務時容易遭遇意外挑戰,導致模型的適應性受到限制。Transformer²的設計理念正是針對這一問題,採用了專家向量和奇異值微調(SVF)技術,使得模型能夠在無需重新訓練整個網絡的情況下,靈活應對新任務。
Transformer²採用了與傳統方法不同的訓練方式。傳統的訓練方法需要調整整個神經網絡的權重,而這種做法不僅成本高昂,還可能導致模型“遺忘”之前學到的知識。相比之下,SVF技術通過學習控制每個網絡連接重要性的專家向量來避免這些問題。專家向量通過調整網絡連接的權重矩陣,幫助模型專注於特定任務,比如數學運算、編程和邏輯推理。
這一方法顯著減少了模型適應新任務所需的參數量。比如,LoRA方法需要682萬個參數,而SVF只需要16萬個參數。這不僅減少了內存和處理能力的消耗,還防止了模型在專注某一任務時遺忘其他知識。最重要的是,這些專家向量能夠有效地協同工作,提升模型對多樣任務的適應能力。
爲了進一步提高適應性,Transformer²引入了強化學習。在訓練過程中,模型通過提出任務解決方案並獲得反饋,不斷優化專家向量,從而提高在新任務上的表現。該團隊開發了三種策略來運用這些專家知識:適應提示、任務分類器和少樣本自適應。特別是少樣本自適應策略,通過分析新任務的示例並調整專家向量,進一步提升了模型的靈活性和準確性。
在多個基準測試中,Transformer²的表現超過了傳統方法LoRA。在數學任務上,它的表現提升了16%,且所需參數大幅減少。在面對全新任務時,Transformer²的準確率比原始模型高出4%,而LoRA則未能取得預期的效果。
Transformer²不僅能夠解決複雜的數學問題,還能結合編程和邏輯推理能力,從而實現跨領域知識的共享。例如,團隊發現較小的模型也可以通過轉移專家向量,藉助較大模型的知識進行性能提升,這爲模型間的知識共享提供了新的可能性。
儘管Transformer²在任務適應性上取得了顯著進展,但它仍面臨一些限制。目前,使用SVF訓練的專家向量只能依賴於預訓練模型中已有的能力,無法添加全新的技能。真正的持續學習,意味着模型能夠自主學習新技能,這一目標仍需要時間來實現。如何在超過700億參數的大型模型中擴展這一技術,依然是一個懸而未決的問題。