OpenAI 聯合創始人 Ilya Sutskever 日前宣佈,他將在今年5月卸任 OpenAI 首席科學家一職後,投身新的創業項目。他與 OpenAI 同事 Daniel Levy 以及蘋果前人工智能主管、Cue 聯合創始人 Daniel Gross 宣佈,他們正共同創辦 Safe Superintelligence Inc.,這家初創企業的使命是構建安全的超級智能。

在 SSI 網站發佈的信息中,創始人們表示,構建安全的超級智能是 “我們這個時代最重要的技術問題”。此外,“我們將安全性和能力視爲一體,作爲通過革命性工程和科學突破解決的技術問題。我們計劃儘快提升能力,同時確保我們的安全性永遠領先。”
那麼,什麼是超級智能?這是一個假設性的概念,代表一個擁有遠超最聰明人類智能的理論實體。
這一舉措是 Sutskever 在 OpenAI 時期工作的延續。他曾是公司的超級對齊團隊成員,負責設計控制強大新人工智能系統的方法。但隨着 Sutskever 的離職,該團隊被解散,這一舉動受到了前領導之一 Jean Leike 的嚴厲批評。
SSI 聲稱將 “直線推進安全超智能的發展,專注於一個目標和一個產品。”
當然,OpenAI 的聯合創始人在2023年11月的一次短暫罷免首席執行官 Sam Altman 中起到了重要作用。Sutskever 後來表示,他對自己在這一事件中的角色感到後悔。
Safe Superintelligence Inc. 的成立將使 Sutskever 等人能夠更加專注地解決安全超智能的問題,實現單一目標的產品發展。
