グーグルCEOのサンドラ・ピチャイ氏は最近、社内で自社のAIシステムの動作メカニズムを完全に把握していないことを公に認め、これはパンドラの箱を開けたようなものであり、AIのブラックボックスな運用の深い謎を明らかにした。

 AIの出現能力:トレーニングから「自己学習」への飛躍

近年、大規模言語モデル(LLM)はスケーリングされたトレーニングにより、予想を越えた新しいスキルを示すことがよくある。この「出現現象」は魔法ではなく、膨大なデータと複雑な計算の統計的産物である。例えば、グーグルのPaLMモデルはわずかなベンガル語のヒントを受けただけで、その言語を流暢に翻訳できるようになった。この現象は最初、AIの「自己学習」能力として説明されたが、その後の分析では、モデルのトレーニングデータにはベンガル語の要素がすでに含まれており、これはゼロから始まる奇跡ではなく、既存パターンの強力な一般化によるものである。

専門家は、モデルのパラメータが数十億に達すると、システムは抽象的な推論や多言語翻訳などの能力を突然示すという。これらのスキルは明確にプログラミングされておらず、トレーニングデータの断片から暗黙的に浮かび上がる。しかし、このような飛躍は不確実性をもたらす:AIは有益な方向でのイノベーションを行うかもしれないが、予測不可能なリスクも生じる可能性がある。

 ブラックボックスな運用:人間の認識の盲点

AIシステムの内部ロジックはしばしば「ブラックボックス」と比喩されるが、開発者さえもその意思決定プロセスを完全に説明できないことが多い。グーグルの上級管理職は、AIの行動を観察しテストすることはできるが、各「ニューロン」の役割を正確に追跡することはできないと認めた。これは人間の脳の働き方と似ている。私たちは脳の基本的な原理を理解しているが、特定の瞬間にどのニューロンが活性化しているのかは分からない。

このブラックボックスの特性は広範な懸念を引き起こしている。何百万人ものユーザーにサービスを提供するAIシステムにおいて、そのメカニズムを完全に理解できなければ、どのようにして安全性を確保することができるだろうか?業界関係者は、AIの「知能」は本質的に統計的なパターンマッチングであり、「意識」の意味での真の「知能」ではないと強調している。しかし、モデルの規模が拡大すれば、この不透明性が潜在的な問題を拡大する可能性がある、例えば誤導的な出力や予期せぬ行動などである。

 グーグルの事例分析:宣伝なのか、本当の脅威なのか?

グーグルの出来事を焦点に:PaLMモデルのベンガル語翻訳能力は「適応的な自己学習」と宣伝されたが、技術論文によると、その7800億トークンの多言語トレーニングデータにはベンガル語を含む100種類以上の言語が含まれていた。これは「未知言語の自己学習」ではなく、ヒント駆動型の効率的な一般化だった。それでも、この能力は驚くべきものであり、AIがデータ量の規模における潜在能力を示している。

一方で、一部の見解では、このような報道は過剰に表現されていると考えられる。AIは「制御不能なSkynet」ではなく、データでトレーニングされるツールである。グーグルの透明性のある発言は賢明な選択とされ、未知の境界を認めることが、AIのリスクに関する業界の慎重な議論を促進し、「ブラックボックス」システムの無批判な導入を避けるために重要だとされている。

 未来展望:機会と課題が共存する

AIの出現能力の台頭は技術革命を予告しているが、同時に警鐘を鳴らしている。投資家はAIのタイムラインの加速がもたらす社会的影響、例えば雇用の変化や倫理的困難に注意を払う必要がある。AIbaseは、AIの説明可能性の研究を強化することが鍵であると主張しており、例えば人工ニューラルネットワークと生物的なニューラルネットワークの対称性をマッピングすることで、より透明な混合モデルを構築する方法を提案している。