最近,前 OpenAI 政策研究負責人邁爾斯・布倫達奇(Miles Brundage)對公司在人工智能安全方面的敘事變更提出了批評,認爲 OpenAI 正在重新編寫其 AI 系統安全的歷史。他表示,OpenAI 在追求通用人工智能(AGI)的過程中,可能會忽視長遠的安全措施。

OpenAI,人工智能,AI

OpenAI 一直以來致力於推動其雄心勃勃的願景,尤其是在 DeepSeek 等競爭對手日益崛起的背景下。公司在追求 AGI 發展的過程中,頻繁強調超級人工智能代理的潛力,然而,這種態度並未獲得廣泛的認可。布倫達奇認爲,OpenAI 在與其現有的 AI 模型的部署和安全性方面的敘述上存在不一致之處。

最近,OpenAI 發佈了一份關於其 AI 模型逐步部署的文檔,旨在展示其謹慎的做法。文檔中以 GPT-2爲例,強調了在處理當前系統時應保持高度謹慎的態度。OpenAI 在文檔中提到:“在一個不連續的世界裏,安全教訓來自於對今天系統的高度謹慎,這正是我們在 GPT-2模型上採取的方法。”

然而,布倫達奇對此提出質疑。他認爲,GPT-2的發佈也遵循了漸進的方法,安全專家曾對 OpenAI 的謹慎處理表示讚賞。他認爲,過去的謹慎並非過度,而是必要和負責任的做法。

此外,布倫達奇還對 OpenAI 聲稱 AGI 將通過漸進步驟而非突然突破的觀點表示擔憂。他認爲,OpenAI 對 GPT-2發佈歷史的誤解,以及對安全歷史的重新敘述,令人感到不安。他還指出,OpenAI 發佈的文檔可能會在某種程度上導致安全顧慮被視爲過度反應,這在 AI 系統不斷髮展的背景下,可能帶來重大風險。

這並非 OpenAI 首次受到批評,專家們質疑公司是否在長期安全與短期利益之間做出了合理的權衡。布倫達奇的擔憂再次引發了人們對 AI 安全的重視。

劃重點:

🌐 OpenAI 前政策負責人質疑公司對 AI 安全敘事的變化,認爲這是對歷史的誤解。  

🚀 OpenAI 發佈的文檔強調了謹慎發佈 AI 模型的重要性,但遭到了前員工的批評。  

⚠️ 未來 AI 系統的發展必須重視安全措施,專家對此表示擔憂。