非営利研究団体である機械知能研究所(MIRI)は、安全上の問題が人類の生存を脅かす可能性があるという懸念から、基礎モデルまたは「最先端」モデルの研究を世界中で停止するよう呼びかけています。基礎モデルとは、様々なモードに適用できる人工知能システムのことです。MIRIは、基礎モデルが人間よりも賢くなり、「人類を滅ぼす」可能性があると主張しています。

脳 大規模モデル

画像出典:AI生成画像、画像ライセンスプロバイダーMidjourney

テクノロジー分野では、イーロン・マスクやスティーブ・ウォズニアックなど、いくつかのリーダーが、OpenAIのGPT-4よりも強力な基礎モデルの開発を一時停止するよう求めてきました。しかし、MIRIはさらに踏み込み、最近発表されたコミュニケーション戦略で、人間よりも賢いシステムの構築を試みることを完全に停止するよう求めています。

同団体は次のように述べています。「政策立案者は、主に妥協によって問題に対処します。彼らは、ある点で譲歩することで、別の点で利益を得ます。人類の生存を維持するためのほとんどの立法は、通常の政治過程を経て、無効な妥協にすり減らされてしまうのではないかと懸念しています。同時に、時間は刻々と過ぎていきます。人工知能研究所は、より強力なシステムの開発とトレーニングに投資し続けています。必要な包括的な立法を得るには、まだ程遠いように見えます。」

MIRIは、政府が基礎モデルを開発する企業に「オフスイッチ」の設置を強制し、AIシステムが悪意のある、または「Xリスク」傾向を示した際にシステムを停止できるようにすることを望んでいます。

この非営利団体は、依然として人間よりも賢い知能システムの概念に尽力していますが、「安全にそのようなAIを構築する方法が分かるようになってから構築する」ことを望んでいます。

MIRIは2000年にEliezer Yudkowskyによって設立され、Peter Thielやイーサリアム暗号通貨の共同創設者Vitalik Buterinなどが支持者です。また、Future of Life Institute(生命未来研究所)もMIRIの主要な貢献者の一つです。

AIとデータ分析調査会社Omdiaの主席アナリストであるBradley Shimmin氏は、裏付けとなる研究が不足しているため、MIRIが立法者を説得するのは難しいだろうと述べています。「市場はこれらの問題を考慮し、次のような結論を出しています。トランスフォーマーベースのGenAIモデルの現状と近い将来の技術レベルでは、複雑なテーマの有用な表現を作成すること以外、ほとんど何もできません。」Shimmin氏は、MIRIは人工知能の構築と規制の間にある知識のギャップを正しく認識していると述べています。

要点:

- 📣非営利研究団体である機械知能研究所(MIRI)は、安全上の問題が人類の生存を脅かす可能性があるという懸念から、基礎モデルまたは「最先端」モデルの研究を世界中で停止するよう呼びかけています。

- 🤖MIRIは、政府が基礎モデルを開発する企業に「オフスイッチ」の設置を強制し、AIシステムが悪意のある、または「Xリスク」傾向を示した際にシステムを停止できるようにすることを望んでいます。

- 🌐AIとデータ分析調査会社Omdiaの主席アナリストであるBradley Shimmin氏は、裏付けとなる研究が不足しているため、MIRIが立法者を説得するのは難しいだろうと述べています。