在人工智能領域,安全問題始終是懸在頭頂的達摩克利斯之劍。然而,最近OpenAI的一系列變動引發了業界的廣泛關注。據IT之家報道,這家致力於開發造福人類的AI技術的公司,其專注於超級智能AI長期風險的AGI安全團隊已流失了近一半的成員。
OpenAI的前治理研究員Daniel Kokotajlo爆料稱,在過去幾個月裏,AGI安全團隊的規模從大約30人減少到了16人左右。這些研究人員原本的職責是確保未來AGI系統的安全性,防止其對人類構成威脅。團隊的縮減不禁讓人擔憂,OpenAI是否正在逐漸忽視AI安全性的問題。
Kokotajlo指出,這些離職並非是有組織的行動,而是團隊成員個人逐漸失去信心的結果。隨着OpenAI越來越專注於產品和商業化,安全研究團隊的縮減似乎成了不可避免的趨勢。
面對外界的擔憂,OpenAI方面表示,公司爲能夠提供最有能力、最安全的人工智能系統感到自豪,並相信自己具有解決風險的科學方法。
今年早些時候,OpenAI聯合創始人、首席科學家Ilya Sutskever宣佈辭去職務,其領導的負責安全問題的“超級對齊”團隊也隨之解散。這一系列變動無疑加劇了外界對OpenAI安全性研究的擔憂。