根据阿尔托大学的研究,使用人工智能(AI)工具可能使我们对自己的认知能力产生误判。普遍情况下,人们倾向于自我评估为 “略好于平均水平”,这种现象在认知测试表现较差的人群中尤为明显,被称为 “达克效应”(Dunning-Kruger Effect)。也就是说,能力较差的人往往高估自己的能力,而能力较强的人却更容易低估自己。

AI机器人面试,谈判

图源备注:图片由AI生成,图片授权服务商Midjourney

然而,阿尔托大学的这项新研究表明,当涉及到大型语言模型(如 ChatGPT)时,这种效应并不成立。研究发现,无论使用者的 AI 素养如何,大家在使用 AI 时普遍高估了自己的表现。尤其是那些认为自己更具 AI 素养的用户,反而更容易产生过度自信的倾向。

研究人员表示,这一发现令人意外,因为通常人们期望具备 AI 素养的人在与 AI 互动时,不仅能表现得更好,还能更准确地判断自己的表现。但事实正好相反。研究指出,虽然使用 ChatGPT 的用户在任务上表现得更好,但他们普遍对自己的表现感到过于自信。

此外,研究还强调了 AI 素养的重要性,指出当前的 AI 工具并未有效促进用户的元认知能力(即对自己思维过程的认识),这可能导致用户在获取信息时的 “智力下降” 现象。因此,研究者呼吁开发新的平台,鼓励用户反思自己的思维过程。

在实验中,研究团队让约500名参与者使用 AI 完成法律学校入学考试(LSAT)中的逻辑推理任务。实验结果显示,大多数用户在使用 ChatGPT 时,只进行了单次提问,并未对 AI 的解答进行深入的思考与核查。研究者称,这种 “认知卸载” 现象可能限制了用户对自己能力的准确判断。

为了解决这一问题,研究者建议 AI 可以主动询问用户是否能够进一步解释自己的推理过程,从而促使用户更深入地参与到与 AI 的互动中,提高他们的批判性思维能力。

划重点:

🔍 大多数人使用 AI 时高估自己的认知表现,尤其是 AI 素养高的用户。  

🤖 人们在使用 ChatGPT 等 AI 工具时,普遍对自己的能力缺乏正确判断。  

📈 研究建议 AI 应促进用户的元认知能力,鼓励更深层次的思考与反思。