AI分野において、非常に影響力を持つ人物である、元OpenAI共同創設者で現在はSafe SuperintelligenceのCEOを務めるイーラ・サツクェバー(Ilya Sutskever)氏が、最近3万文字に及ぶインタビューの中で注目すべき発言をしました。彼は現在の主流のAI開発ルートが限界に達しており、我々が拡張の時代から深く研究する段階に戻ったことを指摘しています。

サツクェバー氏は、2012年から2020年にかけて、AI業界が急速な研究の段階を経験した後、規模拡大の段階に入ったと語っています。しかし現在、計算能力が増加してもモデルの性能が著しく向上していないことから、拡大と計算能力の無駄の境界が曖昧になってきています。この現象を考えると、現在のAI研究が基礎理論や方法論の探求に戻るべきであると考えざるを得ません。

彼はさらに、大規模モデルの汎化能力の問題についても考察しています。これらのモデルは特定の評価テストでは良好な結果を示すものの、実際の応用ではしばしば誤りを犯すことがあり、これは強化学習によるトレーニングデータが狭すぎるため、複雑な現実のタスクに対処する能力が不十分である可能性があります。サツクェバー氏はこの点を比喩によって説明しています。「現行のAIモデルはプログラミングコンテストに特化した学生のようなもので、コンテストでは優れた成績を収めても、実際の仕事ではうまく対応できないかもしれません」と述べました。

サツクェバー氏はまた、AIの意思決定において感情の重要性にも言及しています。彼は、人間の価値観や意思決定能力が一定程度、感情によって調整されているとし、その調整は進化の過程で形成されたものであると述べました。そして、将来的なAIシステムは感情要因を考慮しなければ、複雑な世界をより良く理解し、適応することができないと語っています。

サツクェバー氏だけでなく、多くのAI分野の先駆者たちも現在のAIの発展方向に疑問を投げかけています。例えば、チューリング賞受賞者のヤン・レクン(Yann LeCun)氏は、現在の言語モデル技術が「死のトンネル」であり、本物の知能には到達できないと指摘しています。彼は、「世界モデル」が今後のAIの主流になるとし、世界を模倣し理解することでAIの発展を推進すると語っています。

結論として、AI業界は大きな転換点を迎えています。単なる計算能力や規模の拡大に依存することはもう十分ではなく、新たな研究パラダイムを見直し、探索することが必要です。これにより、汎用人工知能(AGI)の実現への道が開かれるでしょう。