谷歌研究團隊近日發佈了 TimesFM-2.5,這是一個具有2億參數、解碼器單一結構的時間序列基礎模型。與前一版本相比,TimesFM-2.5在參數數量上大幅減少,從500M 降低到200M。同時,這款新模型的上下文長度得到了顯著提升,達到了16,384個數據點。此外,TimesFM-2.5還支持本地概率預測,現已在 Hugging Face 平臺上線,並在 GIFT-Eval 的準確性評估中名列前茅。

時間序列預測是指對隨時間變化的數據點進行分析,以識別模式並預測未來的值。它在各個行業中發揮着關鍵作用,包括零售商品需求預測、天氣和降水趨勢監測,以及大規模系統(如供應鏈和能源網絡)的優化。通過捕捉時間依賴性和季節性變化,時間序列預測能夠在動態環境中支持數據驅動的決策。
與前一版本 TimesFM-2.0相比,TimesFM-2.5的改進主要體現在以下幾個方面:首先,模型的參數數量顯著減少;其次,最大上下文長度的提升使其能夠更好地捕捉多季節性結構和低頻成分,減少了預處理的複雜性;最後,新模型還引入了量化預測的可選功能,支持最多1,000個預測點。
爲什麼上下文長度的增加如此重要?16,384個歷史數據點的支持使得模型在單次前向傳遞中能夠更全面地捕捉到數據的長期趨勢。這對於一些具有顯著歷史影響的領域,例如能源負載和零售需求預測,尤其有利。
TimesFM 的核心理念是通過一個單一的解碼器基礎模型來進行預測,這一理論最早在2024年 ICML 會議的論文中提出。GIFT-Eval(由 Salesforce 發起)旨在爲不同領域的評估標準化提供支持,並在 Hugging Face 上設立了公共排行榜,便於模型性能的比較。
TimesFM-2.5標誌着時間序列預測的基礎模型從概念走向實際應用,展現出在保持較小參數量的同時,提升了模型的準確性和效率。該模型已在 Hugging Face 上上線,並將進一步與 BigQuery 和 Model Garden 進行集成,促進零 - shot 時間序列預測在實際應用中的廣泛採用。
huggingface:https://huggingface.co/google/timesfm-2.5-200m-pytorch
劃重點:
🌟 ** 更小更快 **:TimesFM-2.5的參數數量減少至200M,同時提高了準確性。
📈 ** 更長上下文 **:支持16,384個輸入長度,能夠進行更深入的歷史數據預測。
🏆 ** 基準領跑 **:在 GIFT-Eval 中,TimesFM-2.5在點預測和概率預測方面均排名第一。
