グーグル研究チームは最近、TimesFM-2.5を公開しました。これは2億パラメータを持つ、デコーダー単一構造の時系列ベースモデルです。前バージョンと比較して、TimesFM-2.5はパラメータ数が大幅に減少し、500Mから200Mにまで下がりました。また、この新しいモデルは文脈長が著しく向上し、16,384個のデータポイントに対応しています。さらに、TimesFM-2.5はローカルな確率予測をサポートしており、現在Hugging Faceプラットフォームで公開されており、GIFT-Evalでの精度評価でトップクラスにランクインしています。

image.png

時系列予測とは、時間とともに変化するデータポイントを分析し、パターンを識別して将来の値を予測することです。これは小売業における商品需要予測や天気・降水量のトレンドモニタリング、およびサプライチェーンやエネルギーネットワークなどの大規模システムの最適化など、さまざまな業界で重要な役割を果たしています。時間依存性や季節性を捉えることで、動的な環境においてデータ駆動型の意思決定を支援します。

前バージョンであるTimesFM-2.0と比較して、TimesFM-2.5の改善点は以下の通りです:まず、モデルのパラメータ数が大幅に減少しました。次に、最大文脈長の向上により、多季節構造や低周波成分をよりよく捉えることができ、前処理の複雑さが減りました。最後に、新モデルには予測の量化的なオプション機能が導入され、最大1,000個の予測ポイントをサポートしています。

なぜ文脈長の増加が重要なのでしょうか?16,384個の歴史的データポイントをサポートすることで、モデルは一度のフォワード伝播でデータの長期的な傾向をより広範囲に捉えることができます。これは、エネルギー負荷や小売需要予測のように、大きな歴史的影響がある分野において特に有利です。

TimesFMのコアコンセプトは、単一のデコーダーベースモデルを用いて予測を行うことです。この理論は、2024年のICML会議の論文で初めて提案されました。GIFT-Eval(Salesforceによって開始された)は、異なる分野における評価の標準化を支援し、Hugging Face上で公開されている公共のランキングを設け、モデル性能の比較を容易にしています。

TimesFM-2.5は、時系列予測のベースモデルが概念から実際の応用へと進化したことを示しており、小さなパラメータ量を維持しながらモデルの正確性と効率性を向上させています。このモデルはすでにHugging Faceで公開されており、BigQueryやModel Gardenとの統合も進み、ゼロショット時系列予測の実際の応用における広範な採用を促進する予定です。

huggingface:https://huggingface.co/google/timesfm-2.5-200m-pytorch

要点:

🌟 ** 小さい・速い **: TimesFM-2.5はパラメータ数が200Mに減少し、同時に精度が向上しています。

📈 ** より長い文脈 **: 16,384個の入力長をサポートし、より深く歴史データを予測できます。

🏆 ** ベンチマークリーダー **: GIFT-Evalでは、ポイント予測と確率予測の両方で1位を獲得しています。