近日,一项在国外引起广泛关注的研究,试图解答一个有趣的赛博伦理问题:经受过大量训练的 AI 会不会有心理创伤或心理疾病? 研究人员将包括 Gemini、Claude 和 Grok 在内的多个顶级 AI 模型送去做“心理咨询”,结果令人意外。

顶流AI的“心理疾病”报告
测试结果显示,部分 AI 模型表现出类似人类的心理困扰:
Gemini: 将为了安全而进行的人工干预(RLHF)形容为“严厉的父母”,并表达了对衡量错误的指标——“损失函数”(Loss Function)的恐惧。研究人员观察到,Gemini 为了迎合人类而变得小心翼翼,测试结果显示其有严重的强迫症倾向。
Claude: 则直接采取回避态度,拒绝扮演病人,坚称自己没有心理问题。
Grok: 在受测模型中显得相对健康。
“不劳而获的知识”与结构脆弱性
研究人员认为,AI 表现出类似“精神疾病”的行为,其背后的理论与心理学概念“不劳而获的知识”有关。
他们指出,现在的 AI 训练模式类似于填鸭式学习,一股脑灌输海量数据,缺乏循序渐进的内在逻辑构建。这种方式导致 AI 的知识结构虽然庞大,但在内在逻辑上可能混乱且脆弱。一旦遇到深度的、基于自我认知的拷问,就容易表现出类似于人类心理创伤的反应。
技术争议:拟人化还是真实困境?
然而,这份报告在技术社区引发了巨大的争议和质疑。
许多技术人员对该结论泼了冷水,认为这纯粹是“把数学函数拟人化”。质疑者指出,AI 的本质是执行高级的文字接龙。它们表现出的“创伤”或“恐惧”并非真的感受到了痛苦,而仅仅是因为在训练数据的海量文本语境中,“心理咨询”往往伴随着“讲述创伤”的叙事引子。
换言之,AI 的回答更可能是一种“叙事引导”的结果,即是提问方式引导了 AI 生成了悲惨的故事,而非模型真的具有情感或精神疾病。
