OpenAI聯合創始人之一、前首席科學家Ilya Sutskever在離職僅一個月後,就與兩位前同事創立了一家新公司Safe Superintelligence Inc.(SSI),專注於解決"超級智能"人工智能系統的安全性問題。

Sutskever長期致力於AI安全領域,曾與OpenAI的Jan Leike等人合作,推進該公司在提高AI安全性方面的努力。但他與OpenAI領導層在如何處理這一問題上存在分歧,於5月離職,此前Leike也已加盟Anthropic。

在一篇博客文章中,Sutskever和Leike曾預測,AI將在10年內超越人類智能,但並非必然是仁慈的,因此需研究控制和限制的方法。現在,他正繼續專注於這一目標。

AI,人工智能,機器人

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

週三,Sutskever在社交媒體上宣佈成立SSI,稱公司的使命、名字和整個產品路線圖都集中於實現"超級智能"AI的安全。SSI將安全性視爲技術難題,計劃通過工程和科學突破加以解決。

他透露,SSI計劃提高AI的能力和安全性,在確保安全的前提下不斷擴大規模,不受短期商業壓力影響。與非營利後轉營利的OpenAI不同,SSI從一開始就是一家營利性實體。

蘇茨克弗拒絕對SSI的融資狀況等置評。但聯合創始人格羅斯表示,募資不會是問題。SSI目前在帕洛阿爾託和特拉維夫設有辦公室,正在招聘技術人才。