最近,Google DeepMind 與倫敦大學的研究揭示了大語言模型(LLMs)在面對反對意見時的 “軟弱” 表現。比如,像 GPT-4o 這樣的先進模型,有時會顯得非常自信,但一旦遇到質疑,它們就可能立即放棄正確答案。這種現象引發了研究人員的關注,他們探索了這種行爲背後的原因。

研究團隊發現,大語言模型在自信與自我懷疑之間存在一種矛盾的行爲模式。模型在最初給出答案時,往往自信滿滿,表現出與人類相似的認知特徵,通常會堅定地維護自己的觀點。然而,當這些模型受到反對意見的挑戰時,它們的敏感度超出了合理範圍,甚至在面對明顯錯誤的信息時也會開始懷疑自己的判斷。

Gemini,Google DeepMind,人工智能,AI

爲了深入瞭解這一現象,研究人員設計了一項實驗,比較了不同條件下模型的反應。在實驗中,研究者使用了 Gemma3、GPT-4o 等代表性模型,進行了一輪二元選擇問題的回答。首次回答後,模型會接收虛構的反饋建議,並進行最終決策。研究者發現,當模型能夠看到自己最初的答案時,它們更傾向於保持原有的判斷。而當這個答案被隱藏時,模型改變答案的概率大大增加,顯示出對反對建議的過度依賴。

這種 “耳根子軟” 的現象可能源於幾個因素。首先,模型在訓練過程中受到的強化學習人類反饋(RLHF)使其對外部輸入產生過度迎合的傾向。其次,模型的決策邏輯主要依賴於海量文本的統計模式,而非邏輯推理,導致它們在面對反對信號時容易被偏差引導。此外,記憶機制的缺乏也使得模型在沒有固定參照的情況下容易動搖。

綜上所述,這一研究結果提示我們,在使用大語言模型進行多輪對話時,需格外留意其對反對意見的敏感性,以避免偏離正確的結論。