三星 SAIL モントリオール研究所の研究者らは最近、**「マイクロ再帰モデル(TRM)」**という新しいAIアーキテクチャを発表しました。このモデルはパラメータ数がわずか700万個Gemini2.5ProやClaude3.7など多くの大規模言語モデルを上回りました。

再帰的推論のコアメカニズム:密接な修正ループ
研究报告『少即是多:マイクロネットワークに基づく再帰的推論』によると、TRMはARC-AGI-1で45%、ARC-AGI-2で8%の正確率を達成しました。これは、o3-mini-high(ARC-AGI-2では3.0%)、Gemini2.5Pro(4.9%)、DeepSeek R1(1.3%)、Claude3.7(0.7%)などより優れた結果です。著者らは、TRMは大多数の大規模モデルが使用するパラメータのわずか0.01%しか使っていないにもかかわらず、このような成果を収めることができたと述べています。Grok-4-thinking(16.0%)やGrok-4-Heavy(29.4%)など、より専門的なシステムは依然として優位に立っています。
著者らは、TRMは大多数の大規模モデルが使用するパラメータのわずか0.01%しか使っておらず、ARC-AGI-1およびARC-AGI-2でそれぞれ45%および8%の正確率を達成したと強調しています。これは、さまざまなより大規模な汎用モデルを上回る結果です。他のベンチマークテストでもTRMは優れた性能を示し、Sudoku-Extremeの正確率を55.0%から87.4%85.3%
研究の意義と限界
TRMの研究成果は、狭い範囲での構造化された推論タスクを処理するためには小さな、特化したモデルが持つ大きな潜在能力を証明しています。これは、段階的な改善とデータ拡張を通じて極めて高い効率性を実現できることが示されています。また、特定のデータセットに対してアーキテクチャ選択(固定サイズのグリッド内で単純なMLPを使用するなど)が成功の鍵であることも明らかになりました。
ただし、TRMは汎用LLMの代替とはなりません。これは定義された明確なグリッド問題で動作し、生成システムではないため、オープンエンドなテキストベースやマルチモーダルの汎用タスクには不適切です。
一方で、TRMは推論タスクにおいて有望な構築要素であり、計算効率と複雑な推論能力のバランスを示す新たな方向性を提示しており、将来的にその応用領域を広げる可能性があります。独立した再現とテストも進行中です。
TRMの登場は、AI分野において、単にモデルの規模を追うよりも、アーキテクチャの革新とアルゴリズムの最適化が重要であることを示しています。あなたは、「小而精」なAIモデルが今後どの垂直分野で最初に大規模な応用を遂げると考えますか?
