一直以來,人們都在擔心 AI 是否會超越人類智慧,但最新的研究卻揭示了一個有趣的現象:像
研究人員通過經典的博弈論實驗“凱恩斯選美比賽”(猜數字遊戲)對 AI 進行了測試。實驗要求參與者預測他人的選擇以獲得勝利。理論上,這需要深層的邏輯推演,但人類在實際操作中往往難以達到這種理想狀態。有趣的是,當 AI 與人類對弈時,它們雖然能根據對手的背景(如大學生或專家)調整策略,但依然傾向於認爲人類會做出最理性的選擇。這種“把人想得太聰明”的偏差,導致 AI 在預測人類真實決策時經常失準。
這項研究提醒我們,儘管 AI 可以精準地模擬人類的人格特質,但在處理涉及真實人類行爲的經濟預測、策略建模等複雜任務時,如何校準 AI 對人類非理性行爲的認知,將是未來技術發展的關鍵挑戰。
劃重點:
🧠 認知存在偏差:
等模型傾向於假設人類是完全理性的決策者,忽略了人類行爲中的非理性因素。ChatGPT 🎯 預測結果失準: 由於“想得太多”,AI 在博弈實驗中往往因爲高估對手的邏輯層次而錯失最符合現實的判斷。
⚠️ 潛在應用風險: 專家警告,這種認知脫節可能影響 AI 在經濟建模等需要精準預測人類行爲領域的表現。
