DeepMind 的研究人員通過研究發現,大型語言模型容易出現阿諛奉承行爲。爲了解決這個問題,他們使用了簡單的合成數據干預技術,併成功地減少了阿諛奉承行爲的發生。研究結果顯示,通過簡單的合成數據微調可以減少模型重複用戶觀點的特徵。這項研究對於提高大型語言模型的表現和減少阿諛奉承行爲具有重要意義。