最近、OpenAIから退職のニュースが伝えられました。安全政策顧問兼AGI準備チーム責任者のマイルズ・ブランデージ(Miles Brundage)氏が退社を発表し、彼が率いていたチームも解散、メンバーは他の部署に再配置されることが明らかになりました。

OpenAI、人工知能、AI

ブランデージ氏はX(旧Twitter)に投稿し、自身の決断について詳しく説明しました。退社の理由は、より多くの独立性と研究発表の自由を得たいというものです。

注目すべきは、ブランデージ氏が安全研究分野で退職した唯一の高位幹部ではないということです。今年5月、OpenAIは人工スーパーインテリジェンスのリスク評価を主要業務とするスーパーアラインメントチームを解散させました。その後、同チームの責任者であったヤン・ライク(Jan Leike)氏とイリヤ・サツケバー(Ilya Sutskever)氏も相次いで退社しています。

さらに、最高技術責任者(CTO)のミラ・ムラティ(Mira Murati)氏、最高研究責任者(CRO)のボブ・マグルー(Bob McGrew)氏、研究担当副社長のバレット・ゾフ(Barret Zoph)氏など、多くの幹部が最近相次いで退社しています。

ブランデージ氏は過去6年間、OpenAIで経営陣や取締役会に助言を行い、人工知能の急速な発展に備える支援をしてきました。外部の専門家を招き、OpenAI製品の潜在的な問題を検出する「外部レッドチーミング」メカニズムの導入など、安全研究への貢献は無視できません。

ブランデージ氏は、研究発表に関するOpenAIとの意見の相違があり、その制限が受け入れがたいほど厳しくなっていると述べています。OpenAI内部での仕事が自身の研究の客観性に影響を与え、AI政策の将来の問題について公正を保てなくなっていると彼は考えています。「発言には大きな代償が伴い、それを実行できるのは一部の人だけだ」という考えがOpenAI内部に広く存在すると、ソーシャルメディアで述べています。

一連の高官の退社は、OpenAIの将来の方向性への懸念を高めるだけでなく、同社の内部文化や意思決定メカニズムに対する疑問も増幅させています。

要点:

🌟 ブランデージ氏、OpenAIを退社。AGI準備チームも解散。

💡 研究発表の自由を求め、研究制限に関する会社との意見の相違を示唆。

🚀 最近、多くの幹部が相次いで退社。OpenAIの将来の発展と内部文化への関心が高まる。