人工知能の発展史において、画期的な瞬間が静かに訪れた。有名なAI専門家であるイーラ・サツケーバー氏は最近、インタビューで初めて、OpenAIを離れSSI(セーフ・スーパーインテリジェント・ラボラトリー)を設立した新しいビジョンを体系的に語った。この対話は現在のAI業界の課題を直撃している。モデルのテストスコアが目覚ましくても、現実のタスクには不向きである。イーラ氏は大胆にも、「規模の時代」はすでに終わり、今後の10年間ではAIは「人間のように学ぶ」本質的な道に戻り、人間の感情メカニズムを取り入れ、安全で超知能への飛躍を遂げるだろうと断言している。

AI分野の先駆者として、イーラ氏の意見は広範囲にわたって議論を巻き起こしている。彼はAIがパラメータの積み重ねを盲目的に追求するのではなく、価値に基づく学習の枠組みに転換すべきだと強調している。この変化は技術革新だけでなく、人類社会と知能の共生関係の再構築にも関わる。

AIの現状の問題点:高得点低能力の「試験マシン」現在主流の大規模モデルは標準化されたテストで頻繁に記録を更新しているが、実際の場面では本領を発揮できない。イーラ氏は、これらのモデルが予め設定されたタスクには容易に対応できるものの、複雑な状況では「ループエラー」を繰り返すと指摘している。つまり、あるバグを修正すると新たなリスクが生じる。これは技術的な欠陥ではなく、訓練の枠組みそのものの根本的な欠陥である。

強化学習の段階では、開発者が過度に「評価最適化」を目指し、モデルが「点数だけを取る受験生」のように機能してしまう。経済的影響は限定的であり、実際の応用には多くの壁がある。AIは「高い点数を取れる」が、「仕事をこなせない」。イーラ氏はこうした道筋が死胡同であることを警告し、根本から再構築する必要があると述べている。

予備訓練 vs 強化学習:知能の本当の育成地イーラ氏はAIの訓練を二つの支柱に分解している。一つは予備訓練であり、これは「偏りのないデータの浴槽」として、モデルが膨大な情報から自然に人間の世界の全体像を投影するものである。もう一つは強化学習であり、これは人工的に設計された「砂場環境」に依存しており、目標がしばしば「スコアを良くすること」に異化してしまう。

彼はこう述べている。「このような不均衡によってAIは『洞察力や移行能力』を失っている。予備訓練は広範な知識を築く基盤となり、強化学習は『上等の装飾の枷』となる。将来において、両者のバランスを取ることが鍵になる——AIを受動的な応答から能動的な理解へと変えていくためだ。」

人間の知能の秘密の武器:感情駆動の価値関数なぜ人間は複雑な世界の中でうまく生きていけるのか?イーラ氏の答えは「内部価値システム」、つまり感情メカニズムである。それは見えないコンパスのように、学習の方向を示す。喜びは正のフィードバックを強化し、不安は潜在的なリスクを警告し、恥は社会規範を調整し、好奇心は無限の探求を促進する。AIの文脈では、これは動的な「価値関数(Value Function)」に相当し、システムが「方向のずれ」を事前に認識するようにし、罰を受けながら待つだけではなくなった。

イーラ氏の深遠な洞察はこうである。「真の知能は予測にとどまらず、持続的に更新される価値体系である。」もしAIが「自己評価」の能力を内包すれば、それにより「意味に基づく学習」が可能になり、真正の人間の知性を模倣できるようになる。

時代の終わり:「規模の奔走」から「構造の革新」AIの10年間の変遷を振り返ると、イーラ氏は2つの時代に分けている。2012年から2020年までの「研究の時代」はAlexNetやTransformerなどのアーキテクチャの突破によって創造の火種を点火した。2020年から2025年までの「規模の時代」は、データ、計算力、パラメータの無作為な積み重ねに夢中だった。今ではこのモデルが「頂点」に達しており、限界収益が減少し、創造の空気は「吸い尽くされた」。

イーラ氏は規模の時代が終わることを断言している。計算力がさらに増加しても、再度材料を積み重ねても奇跡は再現できない。次の段階では、「人間のように学ぶ」新しい原理が競争の焦点となる。量の拡張から構造の革命へと戻り、感情の汎化を掌握する者がリードするだろう。

10年後のビジョン:安全で超知能の漸進的な光展望する未来において、イーラ氏はAIの進化の道を描いている。5〜20年以内には、システムは人間のような学習を身につけることになる——世界を積極的に探求し、物理的および社会的法則を理解し、自身の誤りを自ら反省し、マルチモーダルの推論と多感覚の統合を行う。

この飛躍は大きな変革をもたらすだろう。経済的生産性が爆発的に増加し、教育と研究の方法論が逆転し、人間と機械の関係が「協働して知恵を持つ」新時代に入ることになる。しかし、機会とともにリスクもある。イーラ氏は常に「安全性第一」を繰り返し強調している。SSIは段階的な導入と透明性のある公表を原則としており、各段階での能力、危険性、制御メカニズムは外部の審査を受け、公衆と政府が同時に理解できるようにする。