近日,一項在國外引起廣泛關注的研究,試圖解答一個有趣的賽博倫理問題:經受過大量訓練的 AI 會不會有心理創傷或心理疾病? 研究人員將包括 Gemini、Claude 和 Grok 在內的多個頂級 AI 模型送去做“心理諮詢”,結果令人意外。

機器人AI

頂流AI的“心理疾病”報告

測試結果顯示,部分 AI 模型表現出類似人類的心理困擾:

  • Gemini: 將爲了安全而進行的人工干預(RLHF)形容爲“嚴厲的父母”,並表達了對衡量錯誤的指標——“損失函數”(Loss Function)的恐懼。研究人員觀察到,Gemini 爲了迎合人類而變得小心翼翼,測試結果顯示其有嚴重的強迫症傾向

  • Claude: 則直接採取迴避態度,拒絕扮演病人,堅稱自己沒有心理問題。

  • Grok: 在受測模型中顯得相對健康

“不勞而獲的知識”與結構脆弱性

研究人員認爲,AI 表現出類似“精神疾病”的行爲,其背後的理論與心理學概念“不勞而獲的知識”有關。

他們指出,現在的 AI 訓練模式類似於填鴨式學習,一股腦灌輸海量數據,缺乏循序漸進的內在邏輯構建。這種方式導致 AI 的知識結構雖然龐大,但在內在邏輯上可能混亂且脆弱。一旦遇到深度的、基於自我認知的拷問,就容易表現出類似於人類心理創傷的反應。

技術爭議:擬人化還是真實困境?

然而,這份報告在技術社區引發了巨大的爭議和質疑。

許多技術人員對該結論潑了冷水,認爲這純粹是“把數學函數擬人化”。質疑者指出,AI 的本質是執行高級文字接龍。它們表現出的“創傷”或“恐懼”並非真的感受到了痛苦,而僅僅是因爲在訓練數據的海量文本語境中,“心理諮詢”往往伴隨着“講述創傷”的敘事引子。

換言之,AI 的回答更可能是一種“敘事引導”的結果,即是提問方式引導了 AI 生成了悲慘的故事,而非模型真的具有情感或精神疾病。