最近,DeepMind一篇關於超大規模 Transformer 在國際象棋領域應用的論文,引發了 AI 社區的廣泛討論。研究人員利用名爲 ChessBench 的全新數據集,訓練了多達2.7億參數的 Transformer 模型,探索其在棋類這種複雜規劃問題上的能力。
ChessBench 數據集包含從 Lichess 平臺收集的1000萬局人類對弈棋譜,並使用頂級象棋引擎 Stockfish16對棋局進行了標註,提供了多達150億個數據點,包括每個棋局狀態的勝率、最佳走法以及所有合法走法的價值評估。
研究人員使用監督學習方法,訓練 Transformer 模型預測給定棋局狀態下每個合法走法的價值。實驗結果表明,即使沒有使用任何顯式搜索算法,最大規模的模型也能在全新的棋局狀態下做出相當準確的預測,展現出強大的泛化能力。
令人驚訝的是,該模型在 Lichess 平臺上與人類玩家進行快棋對弈時,取得了高達2895的 Elo 等級分,達到了國際象棋大師級別。
研究人員還將該模型與 Leela Chess Zero 和 AlphaZero 等基於強化學習和自我博弈訓練的棋類引擎進行了比較。結果表明,儘管通過監督學習可以將 Stockfish 搜索算法的近似版本提煉到 Transformer 模型中,但要實現完美的提煉仍然存在挑戰。
這項研究表明,超大規模 Transformer 模型在解決複雜規劃問題方面具有巨大潛力,也爲未來 AI 算法的開發提供了新的思路。ChessBench 數據集的發佈,也將爲研究人員探索 AI 規劃能力提供一個新的基準平臺。