根據阿爾託大學的研究,使用人工智能(AI)工具可能使我們對自己的認知能力產生誤判。普遍情況下,人們傾向於自我評估爲 “略好於平均水平”,這種現象在認知測試表現較差的人羣中尤爲明顯,被稱爲 “達克效應”(Dunning-Kruger Effect)。也就是說,能力較差的人往往高估自己的能力,而能力較強的人卻更容易低估自己。

AI機器人面試,談判

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

然而,阿爾託大學的這項新研究表明,當涉及到大型語言模型(如 ChatGPT)時,這種效應並不成立。研究發現,無論使用者的 AI 素養如何,大家在使用 AI 時普遍高估了自己的表現。尤其是那些認爲自己更具 AI 素養的用戶,反而更容易產生過度自信的傾向。

研究人員表示,這一發現令人意外,因爲通常人們期望具備 AI 素養的人在與 AI 互動時,不僅能表現得更好,還能更準確地判斷自己的表現。但事實正好相反。研究指出,雖然使用 ChatGPT 的用戶在任務上表現得更好,但他們普遍對自己的表現感到過於自信。

此外,研究還強調了 AI 素養的重要性,指出當前的 AI 工具並未有效促進用戶的元認知能力(即對自己思維過程的認識),這可能導致用戶在獲取信息時的 “智力下降” 現象。因此,研究者呼籲開發新的平臺,鼓勵用戶反思自己的思維過程。

在實驗中,研究團隊讓約500名參與者使用 AI 完成法律學校入學考試(LSAT)中的邏輯推理任務。實驗結果顯示,大多數用戶在使用 ChatGPT 時,只進行了單次提問,並未對 AI 的解答進行深入的思考與覈查。研究者稱,這種 “認知卸載” 現象可能限制了用戶對自己能力的準確判斷。

爲了解決這一問題,研究者建議 AI 可以主動詢問用戶是否能夠進一步解釋自己的推理過程,從而促使用戶更深入地參與到與 AI 的互動中,提高他們的批判性思維能力。

劃重點:

🔍 大多數人使用 AI 時高估自己的認知表現,尤其是 AI 素養高的用戶。  

🤖 人們在使用 ChatGPT 等 AI 工具時,普遍對自己的能力缺乏正確判斷。  

📈 研究建議 AI 應促進用戶的元認知能力,鼓勵更深層次的思考與反思。