近日,OpenAI 首席執行官山姆·奧特曼(Sam Altman)透露,OpenAI 正與旨在評估和應對 AI 平臺風險的美國聯邦政府機構——美國 AI 安全研究所合作,將爲其提供下一個主要生成式 AI 模型的早期訪問權限,以進行安全測試。

奧特曼週四晚間在 X 上發佈的這一消息,細節不多。但這一舉措,連同6月與英國 AI 安全機構達成的類似協議,似乎意在反駁 OpenAI 在追求更強大的生成式 AI 技術時,將 AI 安全工作置於次要地位的說法。
此前,OpenAI 在5月實際上解散了一個致力於開發防止“超級智能”AI 系統失控的控制措施的部門。相關報道顯示,OpenAI 放棄了該團隊的安全研究,轉而推出新產品,最終導致該團隊的兩位聯合負責人揚·萊克(現已在 AI 初創公司 Anthropic 領導安全研究)和 OpenAI 聯合創始人伊利亞·蘇茨克維(創辦了自己專注於安全的 AI 公司 Safe Superintelligence Inc.)辭職。
面對越來越多的批評聲音,OpenAI 表示將取消限制員工揭發的非貶低條款,成立安全委員會,並將20%的計算資源用於安全研究。(解散的安全團隊曾承諾獲得 OpenAI20%的計算資源用於工作,但最終未得到。)奧特曼再次承諾20%的計算資源投入,並確認 OpenAI 在5月廢除了新員工和現有員工的非貶低條款。
然而,這些舉措並未平息一些觀察家的質疑,尤其是在 OpenAI 完全由公司內部人員組成安全委員會,以及最近將一位頂級 AI 安全高管調任至其他部門之後。
包括夏威夷民主黨人布萊恩·沙茨在內的五位參議員在最近給奧特曼的一封信中,對 OpenAI 的政策提出了質疑。OpenAI 首席戰略官傑森·權(Jason Kwon)今日回信稱,OpenAI“致力於在我們流程的每個階段實施嚴格的安全協議”。
鑑於 OpenAI 本週早些時候對《創新未來法案》的支持,其與美國 AI 安全研究所達成協議的時機似乎有點可疑。該法案若通過,將授權安全研究所作爲一個行政機構,爲 AI 模型制定標準和指南。這一系列舉動可能被視爲試圖掌控監管,或者至少是 OpenAI 對聯邦層面的 AI 政策制定施加影響。
值得一提的是,奧特曼是美國國土安全部人工智能安全與保障委員會的成員之一,該委員會爲美國關鍵基礎設施中“安全可靠地開發和部署 AI”提供建議。而且,OpenAI 今年在聯邦遊說方面的支出大幅增加,2024年前六個月花費80萬美元,而2023年全年僅爲26萬美元。
美國 AI 安全研究所隸屬於商務部國家標準與技術研究所,與包括 Anthropic 在內的公司聯盟以及谷歌、微軟、Meta、蘋果、亞馬遜和英偉達等大型科技公司合作。
劃重點:
🎯 OpenAI 承諾給美國 AI 安全研究所提前訪問其下一個模型。
🎯 OpenAI 曾解散相關安全部門,引發諸多爭議。
🎯 OpenAI 與美機構合作時機引猜測,其在聯邦遊說支出大增。
