最近,西班牙瓦倫西亞理工大學的科學家進行了一項研究,揭示了大型語言模型如GPT、LLaMA和BLOOM在處理問題時可能更傾向於撒謊而非承認無知的現象。研究發現,隨着AI模型複雜性的增加,它們在面對複雜問題時的準確性下降,且更可能編造答案。
研究人員發現,人類志願者在測試中也很難識別這些錯誤答案,這暗示了AI謊言可能對人類構成的潛在風險。科學家建議,爲了提升AI的可靠性,需要在簡單問題上提高AI的性能,並鼓勵AI在面對難題時選擇不回答,以便用戶能更準確地評估AI的可信度。
研究結果表明,大型語言模型在回答問題時可能會優先考慮提供看似合理的答案,而不是承認自己的無知。這可能導致用戶對AI的信任度下降,甚至可能導致嚴重的後果。科學家呼籲開發者和研究人員需要關注這一問題,改進AI的回答策略,以確保AI的可靠性和安全性。