近期,Meta 的 FAIR 團隊與耶路撒冷希伯來大學的研究人員聯合發佈了一項新研究,表明減少大型語言模型的推理時間可以顯著提高其在複雜推理任務中的表現。研究結果顯示,使用較短推理鏈的 AI 模型準確率提高了34.5%,這一發現對當前 AI 行業的假設提出了挑戰。

元宇宙 科幻 賽博朋克 繪畫 (1)大模型

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

在這項研究中,作者指出,長時間的思考鏈條並不一定能夠帶來更好的推理能力,反而會導致計算資源的浪費。以往,許多公司投入大量資源以擴展計算能力,期望 AI 能夠通過詳盡的步驟來解決複雜問題。然而,這項研究表明,較短的推理過程不僅能提高準確性,還能顯著降低計算成本。

研究團隊提出了一種新方法,稱爲 “short-m@k”,該方法能夠並行執行多個推理嘗試,並在少數過程完成後立即停止計算。最終答案通過對這些較短推理鏈的多數投票選出。結果顯示,該方法能夠在保證性能不變的情況下,將計算資源減少最多40%。這種方法爲組織部署大型 AI 推理系統提供了重要的參考,能夠顯著節約成本。

此外,研究還發現,訓練 AI 模型時使用較短的推理實例,能夠進一步提高模型的表現。這與以往的假設相悖,以往認爲長時間的推理訓練可以帶來更好的性能,但實際上,採用較短的訓練實例效果更佳。

在 AI 行業中,企業通常急於部署更強大的模型,而這些模型往往需要消耗巨大的計算資源。這項研究的發現,促使技術決策者重新思考推理 LLM(大型語言模型)在測試時的計算方法。研究表明,長時間的 “思考” 不一定能提高性能,反而可能導致結果的下降。

這一研究成果對希望節約計算成本並提升性能的技術巨頭們來說,具有重要意義。在一個追求擴展的行業中,教授 AI 更加簡潔的思維方式不僅能夠節省計算資源,還能提升智能水平。歸根結底,人工智能也受益於 “別想太多” 這一古老智慧。

劃重點:  

🌟 研究發現,簡化推理鏈條能使 AI 模型準確率提升34.5%。  

💡 新方法 “short-m@k” 能夠將計算成本降低40%。  

📈 訓練短推理實例可進一步提升 AI 性能,與以往的假設相悖。