最近、スタンフォード大学とワシントン大学のAI研究者らは、s1というAI推論モデルの開発に成功しました。その訓練コストは50ドル未満、必要なクラウドコンピューティングのクレジットも非常に少なくて済みました。この研究成果は先週金曜日に発表され、s1は数学とプログラミング能力テストにおいて、OpenAIのo1モデルやDeepSeekのR1モデルに劣らない性能を示したことが明らかになりました。s1のコードとデータはGitHubで公開されており、他の研究者も利用可能です。

image.png

研究チームによると、彼らは既存の基礎モデルから出発し、蒸留技術を用いて微調整することで、必要な推論能力を抽出しました。s1の蒸留プロセスには、GoogleのGemini2.0Flash Thinking Experimentalモデルが使用されました。これは、カリフォルニア大学バークレー校の研究者らが先月、約450ドルの訓練コストで別のAI推論モデルを訓練した際に用いた方法と類似しています。

この成果は多くの人々を勇気づけており、特に現在のAI分野では、巨額の資金援助なしでもイノベーションが可能であることを示しています。しかし、s1の登場はAIモデルの商品化についても深い考察を促します。誰でも比較的低コストで数百万ドル規模のモデルを複製できるようになった場合、大手企業の競争優位性はどこにあるのでしょうか?

明らかに、大手AIラボはこの状況に満足していません。OpenAIは以前、DeepSeekが不正にAPIデータを使用してモデル蒸留を行ったと非難しています。s1の研究チームは、強力な推論性能を実現し、同時に「テスト時間拡張」能力(AIモデルが回答する前により多くの思考時間を与えること)を向上させるための簡単な方法を見つけ出したいと考えています。これらはOpenAIのo1モデルが達成したブレークスルーであり、DeepSeekや他のAIラボも様々な方法で複製を試みています。

s1の研究は、比較的少量のデータセットを用いて、教師あり微調整(SFT)手法によって推論モデルを効果的に蒸留できることを示しています。この手法は、DeepSeekが採用している大規模な強化学習手法よりも通常は安価です。GoogleはGemini2.0Flash Thinking Experimentalへの無料アクセスを提供していますが、このプラットフォームには1日の利用制限があり、その利用規約では競合サービス開発のためのモデルのリバースエンジニアリングを禁止しています。

s1の訓練のために、研究者らは厳選された1000個の問題とその対応する解答、そして問題の背後にある「思考」プロセスを含むデータセットを作成しました。訓練プロセスには16個のNvidia H100 GPUを使用し、30分未満で完了しました。研究者らによると、現在では約20ドルで必要な計算資源をレンタルできるということです。さらに、研究チームは巧妙なテクニックを用いて、s1が推論時に「お待ちください」という言葉を付加することで、回答の精度を向上させています。

2025年以降、Meta、Google、MicrosoftはAIインフラストラクチャに数千億ドルを投資する計画であり、その一部は次世代AIモデルの訓練に充てられます。蒸留技術はAIモデルを低コストで再現する能力において優れた効果を示していますが、新しいAIモデルの性能を劇的に向上させるわけではありません。

論文:https://arxiv.org/pdf/2501.19393

コード:https://github.com/simplescaling/s1

要点:

🌟 s1モデルの訓練コストは50ドル未満で、トップレベルの推論モデルに匹敵する性能を発揮します。

🛠️ 研究チームは蒸留技術を用いて、既存モデルから推論能力を抽出し、迅速かつ効率的な訓練プロセスを実現しました。

🚀 低コストでのモデル複製に、大手AIラボは懸念を示しており、今後の投資はAIインフラストラクチャに集中する見込みです。