近日,微軟研究院與卡內基梅隆大學的研究人員聯合發佈了一項新研究,揭示了知識工作者在使用生成性人工智能(如 C o p i l o t 和 ChatGPT)時的潛在問題。研究小組通過對319名每週使用生成性 AI 的知識工作者進行調查,探討了他們在使用這些工具時的批判性思維應用情況。

機芯大腦 人工智能

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

研究結果顯示,那些對任務充滿信心的工作者,更傾向於對生成性 AI 的輸出進行批判性思考。然而,對於那些對任務缺乏信心的人,他們往往會認爲生成性 AI 的回答是足夠的,因此不會再進行深入思考。這種現象引發了研究人員的關注,他們指出,過度依賴 AI 工具可能會導致批判性思維能力的下降。

研究中提到,“對 AI 的信任與減少批判性思考的努力相關,而自信心則與增強批判性思考相關。” 這意味着在設計企業 AI 工具時,應考慮如何平衡這兩種因素。研究者建議,AI 工具應當包含支持長期技能發展的機制,鼓勵用戶在與 AI 生成的輸出互動時進行反思性思考。

與此同時,研究者提到,僅僅解釋 AI 是如何得出結論的並不足夠,好的 AI 工具還應通過主動的設計策略來促進用戶的批判性思考,提供必要的幫助。他們強調,知識工作者應該在日常工作中運用批判性思維來驗證 AI 的輸出,避免對 AI 的過度依賴。

研究的結論強調,隨着 AI 逐漸融入我們的工作世界,知識工作者需要在信息收集和問題解決的基礎技能上保持一定的能力,以防止對 AI 的過度依賴。他們應當接受培訓,發展信息驗證、回答整合和任務管理等技能。

該研究的論文將於2025年人機交互會議上發佈,研究團隊希望藉此引起對生成性 AI 影響的廣泛關注。

劃重點:

🌟 研究顯示,對生成性 AI 的信任可能會導致知識工作者的批判性思維能力下降。  

💡 自信心與批判性思維成正比,企業 AI 工具的設計需關注這一平衡。  

📊 知識工作者應接受培訓,維護基礎信息收集與問題解決能力,以避免過度依賴 AI。