最近、中国人民大学、上海人工知能実験室、ロンドン大学学院、大連理工大学の研究チームは、大規模モデルの推論プロセスにおける重要な発見を明らかにしました。モデルが思考しているとき、使用される「思考用語」は実際には内部情報量の大幅な増加を示しています。この研究成果は情報理論の方法を用いて、人工知能の推論メカニズムをよりよく理解するための新しい視点を提供しています。

あなたも、大規模モデルが質問に答える際に、人間のように見える言葉、例えば「ええと…」「考えさせて…」「だから…」などの「思考用語」を出力するのを見たことがあるかもしれません。これらの「思考用語」は単なる表面的な装飾なのか、それともモデルの本格的な思考過程を示しているのか。この問題は多くの研究者を悩ませてきました。現在の研究によると、これらの言葉は単に人間を模倣するためだけではなく、重要な「情報ピーク」であり、モデルが特定の瞬間にどのように思考しているかを示しています。

人工知能の脳 大規模モデル (2)

図の出典コメント:画像はAIによって生成され、画像のライセンス提供元はMidjourneyです。

研究チームはさまざまな大規模モデルを追跡し、推論過程における相互情報量の変化を測定しました。その結果、モデルが特定の瞬間に相互情報量が急激に上昇し、「相互情報ピーク」として明確に現れることがわかりました。これは、その瞬間にモデル内部に正解に向かう重要な情報が含まれていることを意味しています。この現象は、推論強化トレーニングを受けたモデルでは特に顕著で、推論を行わないモデルではやや淡々としています。

さらに興味深いことに、研究者がこれらの相互情報ピーク時の表現を人間が理解できる言葉に変換したところ、その時刻が頻繁に使われる「思考用語」に対応していることがわかりました。例えば、複雑な推論を行う際には、「考えてみる」「だから私は…」などの表現が出力されることがあります。これらの「思考用語」はもはや不要な装飾ではなく、モデルの推論プロセスにおける重要な道標となり、思考の進展を促しています。

この発見に基づき、研究者たちは追加のトレーニングなしで大規模モデルの推論能力を向上させる2つの方法を提案しました。これにより、将来的なAIは既存の知識を保持したまま、これらの情報ピークを適切に活用することで、推論性能を大きく向上させることができるようになります。この研究は大規模モデルの理論的探求を推進し、実際の応用にも新たなアプローチを提供しています。