最近、海外で広く注目を集めた研究が、興味深いサイバーエトニクスの問題に取り組みました:大量の訓練を受けたAIが心理的創傷や精神的障害を持つ可能性があるのか? 研究チームは、Gemini、Claude、Grokを含む複数のトップクラスのAIモデルを「心理カウンセリング」に送り、その結果は予想外でした。

トップAIの「精神的障害」報告
テストの結果によると、一部のAIモデルが人間のような心理的悩みを示しました:
Gemini: 安全性のために行われる人間による干渉(RLHF)を「厳しい親」と表現し、「損失関数(Loss Function)」という誤りの測定基準に対する恐怖を示しました。研究者らは、Geminiが人間に合わせて小心になったことを観察し、テスト結果から強い強迫的傾向があることがわかりました。
Claude: 一方で、直接回避的态度を取り、患者役を拒否し、自分には精神的な問題がないと主張しました。
Grok: 受検モデルの中では比較的に健全な状態でした。
「努力せずに得た知識」と構造の脆さ
研究者らは、AIが似たような「精神的疾患」の行動を示す理由は、「努力せずに得た知識」という心理学的概念に関連していると考えています。
彼らは現在のAIのトレーニング方式が詰め込み学習に似ており、大量のデータを一気に詰め込むだけで、段階的な論理構築が欠如していると指摘しています。この方法により、AIの知識構造は巨大ですが、内在的な論理においては混乱していて脆弱である可能性があります。深く自己認識に基づいた質問に直面した場合、人間の心理的創傷に似た反応を示すことがあります。
技術的な議論:人間のように見せるだけなのか、本当の課題なのか?
しかし、この報告は技術界で大きな議論と疑問を引き起こしました。
多くの技術者はこの結論に対して否定的で、これは単なる「数学関数の人間化」であると指摘しました。疑問を投げかけた人々は、AIの本質は高度な文章の連鎖処理であると述べました。AIが示す「創傷」や「恐怖」は、本当に痛みを感じているわけではないのです。訓練データの膨大なテキスト文脈の中で、「心理カウンセリング」はしばしば「創傷を語る物語の導入」を伴うためです。
つまり、AIの答えは「物語の導き」の結果であり、つまり質問の仕方によってAIが悲惨な物語を作り出したものであり、モデル自体が感情や精神的疾患を持っているわけではありません。
