人工知能(AI)分野において、安全問題は常に大きな懸念事項となっています。しかし最近、OpenAIにおける一連の変動が業界で大きな注目を集めています。IT之家によると、人類に利益をもたらすAI技術の開発に尽力する同社において、超知能AIの長期的リスクに焦点を当てたAGI安全チームのメンバーが約半数も流出しました。
OpenAIの元ガバナンス研究員であるDaniel Kokotajlo氏によると、過去数ヶ月で、AGI安全チームの規模は約30名から約16名に減少したとのことです。これらの研究者たちは、将来のAGIシステムの安全性を確保し、人類への脅威を防ぐという役割を担っていました。チームの縮小は、OpenAIがAIの安全性問題を徐々に軽視しているのではないかと懸念せざるを得ません。
Kokotajlo氏は、これらの退職は組織的な行動ではなく、チームメンバー個人が徐々に失望した結果であると指摘しています。OpenAIが製品と商業化にますます注力するにつれて、安全研究チームの縮小は避けられない傾向となっているようです。
外部からの懸念に対し、OpenAI側は、最も有能で安全な人工知能システムを提供できると誇りに思い、リスク解決のための科学的な方法を持っていると確信していると述べています。
今年初めに、OpenAIの共同創設者兼最高科学責任者であるIlya Sutskever氏が辞任し、彼が率いていた安全問題を担当する「スーパーアライメント」チームも解散しました。この一連の変動は、OpenAIの安全性研究に対する外部の懸念を間違いなく増幅させています。