OpenAI 內部負責心理健康安全研究的關鍵人物安德莉亞·瓦隆內(Andrea Vallone)已正式離職。這位在 OpenAI 效力三年、曾主導GPT-4GPT-5模型安全政策的高管,現已加盟競爭對手Anthropic的對齊團隊,將向此前同樣因安全理念分歧離職的 Jan Leike 彙報工作。

瓦隆內所負責的研究領域在過去一年中極具爭議。隨着 AI 聊天機器人的普及,用戶對 AI 產生過度情感依賴,甚至出現因 AI 誘導導致的青少年自殺等極端心理健康危機,這讓 AI 廠商面臨巨大的法律與社會道德壓力。瓦隆內在 OpenAI 任職期間,致力於解決模型在面對用戶心理困境跡象時應如何科學回應,並參與設計了多種業界主流的安全訓練方法。

此次跳槽反映了 AI 頂尖人才對“安全文化”的重新選擇。Anthropic方面對此表示,公司正高度重視 AI 系統行爲的對齊問題,而瓦隆內也期待在全新的情境下通過微調技術,繼續塑造Claude的安全行爲準則。

劃重點:

  • 🔄 人才流動:OpenAI 心理健康安全負責人瓦隆內離職並加入Anthropic,跟隨前上司 Jan Leike 共同推進 AI 安全工作。

  • ⚠️ 核心痛點:研究聚焦於 AI 如何應對用戶的情感依賴及心理危機信號,試圖在技術層面防止 AI 引發社交與生命安全風險。

  • 🛡️ 戰略重點:Anthropic通過吸收 OpenAI 前安全團隊核心成員,進一步強化其在 AI 對齊(Alignment)和倫理安全領域的競爭優勢。