最近、DeepMindが超大規模Transformerをチェスに応用した論文を発表し、AIコミュニティで大きな議論を呼んでいます。研究者らは、ChessBenchという新しいデータセットを用いて、最大2億7000万パラメータのTransformerモデルを訓練し、複雑な計画問題であるチェスにおける能力を探りました。
ChessBenchデータセットは、Lichessプラットフォームから収集された1000万局の人間の対局記録を含んでおり、トップレベルのチェスエンジンStockfish16を用いて注釈が付けられています。勝率、最善手、そして全ての合法手の価値評価を含む、最大150億個のデータポイントを提供しています。
研究者らは教師あり学習を用いて、与えられたチェスの局面における各合法手の価値を予測するようTransformerモデルを訓練しました。実験の結果、明示的な探索アルゴリズムを使用しなくても、最大規模のモデルは全く新しい局面においてもかなり正確な予測を行い、強力な汎化能力を示しました。
驚くべきことに、このモデルはLichessプラットフォームで人間プレイヤーと速棋で対戦し、2895というEloレーティングを達成、チェスのマスターレベルに達しました。
研究者らはまた、このモデルを強化学習と自己対戦によって訓練されたLeela Chess ZeroやAlphaZeroなどのチェスエンジンと比較しました。その結果、教師あり学習によってStockfish探索アルゴリズムの近似版をTransformerモデルに蒸留することは可能ですが、完璧な蒸留には依然として課題が残ることが示されました。
この研究は、超大規模Transformerモデルが複雑な計画問題を解決する上で大きな可能性を秘めていることを示しており、将来のAIアルゴリズム開発のための新たな方向性を示唆しています。ChessBenchデータセットの公開は、研究者らがAIの計画能力を探求するための新たなベンチマークプラットフォームを提供することになります。