谷歌DeepMind最新研究表明,大型語言模型在沒有外部指導的情況下,難以自我糾正推理錯誤。研究人員發現,模型僅依靠自身想法來糾正最初反應時,經常會出錯。研究還發現,通過多個模型投票達成一致雖可實現自我一致,但這與真正的自我糾正還有差距。研究者表示,這項研究結果對開發需要更高安全性的應用具有重要意義。他們呼籲在認識自我糾正潛力與侷限性的基礎上,繼續努力改進現有語言模型。