先日、OpenAIのCEOであるサム・アルトマンは、AIプラットフォームのリスク評価と対応を目的とした米国の連邦政府機関である米国AI安全研究所と協力し、同研究所に次世代の大規模言語モデルへの早期アクセスを提供して安全テストを行うと発表しました。

OpenAI、ChatGPT、人工知能、AI

アルトマン氏は木曜夜にX(旧Twitter)でこの発表を行い、詳細は多くありませんでしたが、この動きは6月に英国のAI安全機関と結んだ同様の合意と合わせて、OpenAIがより強力な生成AI技術の追求においてAIの安全性を軽視しているという批判への反論と見なせます。

以前、OpenAIは「スーパーインテリジェンス」AIシステムの暴走を防ぐための制御策開発に携わっていた部門を事実上解散しました。報道によると、OpenAIはこのチームの安全研究を放棄し、新製品の開発にシフトした結果、チームの共同リーダー2名(現Anthropicで安全研究を率いるヤン・レック氏と、安全に特化したAI企業Safe Superintelligence Inc.を設立したOpenAI共同設立者イリヤ・スツケバー氏)が辞任しました。

増え続ける批判に対し、OpenAIは従業員の内部告発を制限する非難条項を撤廃し、安全委員会を設立し、計算資源の20%を安全研究に充てると発表しました。(解散した安全チームはOpenAIの計算資源の20%を約束されていましたが、実際には提供されませんでした。)アルトマン氏は改めて計算資源の20%の投入を約束し、5月に新旧従業員間の非難条項を廃止したことを確認しました。

しかし、これらの対策は一部のオブザーバーの疑問を解消しておらず、特に安全委員会がOpenAIの内部人員だけで構成されていることや、最近トップのAI安全責任者が他の部署に異動したことが懸念されています。

ハワイ州選出の民主党上院議員ブライアン・シャッツ氏を含む5人の上院議員は、最近アルトマン氏に宛てた書簡でOpenAIの方針に疑問を呈しました。OpenAIの最高戦略責任者であるジェイソン・クウォン氏は本日、OpenAIは「あらゆる段階で厳格な安全プロトコルを実施することに尽力している」と回答しました。

OpenAIが今週初めに「イノベーション未来法案」を支持したことを考えると、米国AI安全研究所との合意のタイミングは少々不審に思えます。この法案が可決されれば、安全研究所は行政機関としてAIモデルの基準とガイドラインを策定する権限を得ます。この一連の動きは、規制を掌握しようとする試み、あるいは少なくとも連邦レベルのAI政策策定に影響を与えようとするOpenAIの意図と解釈できるかもしれません。

注目すべきは、アルトマン氏が米国国土安全保障省人工知能安全保障委員会の委員を務めており、同委員会は米国の重要インフラにおける「AIの安全で信頼できる開発と展開」に関する助言を行っていることです。また、OpenAIの連邦ロビー活動への支出は今年大幅に増加しており、2024年前半6ヶ月間で80万ドルを費やしており、2023年通年では26万ドルでした。

米国AI安全研究所は商務省国立標準技術研究所に所属し、Anthropicを含む企業連合や、Google、Microsoft、Meta、Apple、Amazon、Nvidiaなどの大手テクノロジー企業と協力しています。

要点:

🎯 OpenAIは米国AI安全研究所に次世代モデルへの先行アクセスを提供すると約束。

🎯 OpenAIは安全部門を解散し、多くの論争を引き起こす。

🎯 OpenAIと米国機関の協力のタイミングが憶測を呼ぶ、連邦ロビー活動への支出が大幅増加。