汎用人工知能(AGI)コンペティションが盛り上がっている中、マイクロソフトAIのCEOであるMustafa Suleymanは業界全体に警鐘を鳴らした。我々が危険なほど重要な2つの概念、「コントロール」と「アライメント(対応)」を混同していると指摘した。彼はSNSプラットフォームXで明言し、効果的にコントロールできないAIシステムは、その目的がどれほど人間の価値観とアライメントしていたとしても、本質的に信頼できず危険なものだという。
Suleymanは、現在業界がAIに「人間の意図を理解させる」こと(アライメント)に過度に注力している一方で、より基本的な前提条件、つまりシステムの行動が常に人間が設定したハードル内にあることを確保すること(コントロール)を軽視していると強調した。彼は比喩して、「制御不能なシステムを操ることはできない、それが『愛している』と言ったとしてもだ」と述べた。彼の見解では、超知能を追求する前に、検証可能で強制可能なコントロールフレームワークを優先的に構築することが必要であり、これはAIの安全性において越えられない下地である。
この意見は、マイクロソフトAIブログに最近公開された『ヒューマニスティックなスーパーアイ』という記事の中でさらに詳述されている。Suleymanは、AIの開発の中心を、幻想的な「完全自律型汎用知能」から、医療診断、新薬開発、クリーンエネルギーの突破などの具体的な高価値分野に受動的で専門的かつ監査可能な知能システムを配置することへと移すべきだと主張している。このような「ヒューマニスティックなスーパーアイ」は全能を目指すものではなく、人類の最も緊急な課題を解決することを使命とし、常に人間の監督下に置かれる。
注目すべきは、Suleymanが表明の中で珍しく業界協力を示した点である。彼は複数の主要なAI企業の上層部と密接なコミュニケーションを取っていることを明らかにし、エロン・マスクが「率直に安全に関する議論を推進した」価値を公に評価するとともに、Sam Altmanが「効率的で強い推進力を持つ」ことを称賛した。しかし彼は再び強調した。「技術的な道がどうであれ、コントロールはすべてのAI開発の出発点と赤い線である」。
2026年、AIの能力が指数関数的に向上する中、Suleymanの警告は冷水のように響いた。それは、業界が暴走するように促すことを思い出させた。本当の知能とは、何ができるかだけでなく、絶対にできないことを見極めることにもあるのだ。コントロールの堤防をまず築き上げなければ、アライメントの船は未知のリスクの海で沈没してしまうだろう。
