アルト大学の研究によると、人工知能(AI)ツールを使用することで、私たちが自分の認知能力を誤って評価する可能性があるという。一般的には、人々は「平均よりやや優れている」と自己評価する傾向があり、特に認知テストの結果が悪い人々において顕著な現象で、「ダンキン・クルーガー効果(Dunning-Kruger Effect)」と呼ばれている。つまり、能力が低い人は自分の能力を過大評価し、能力が高い人は逆に自分を過小評価しがちである。

図の出典コメント:画像はAIによって生成され、画像のライセンス提供者Midjourney
しかし、アルト大学のこの新しい研究では、大型言語モデル(例えばChatGPTなど)に関連する場合、この効果は成立しないことが分かった。研究では、AIの知識を持つユーザーかどうかに関係なく、多くの人がAIを使用する際に自分のパフォーマンスを過大評価していることが明らかになった。特に、自分自身がAIの知識を持っていると信じているユーザーは、過度な自信を持つ傾向が強かった。
研究者によると、この発見は予想外だった。なぜなら、通常、AIの知識を持っている人であれば、AIと対話する際に、より良いパフォーマンスを発揮し、自分のパフォーマンスを正確に判断できると考えていたからだ。しかし実際には逆だった。研究では、ChatGPTを使用するユーザーがタスクでより良い結果を出している一方で、彼らは自分のパフォーマンスを過度に自信を持って感じていることが指摘された。
また、研究はAIの知識の重要性を強調し、現在のAIツールがユーザーのメタ認知能力(自分の思考プロセスの認識)を効果的に促進していない点を指摘した。これは、情報取得時の「知的低下」現象につながる可能性がある。そのため、研究者はユーザーが自分の思考プロセスを振り返ることを促す新しいプラットフォームの開発を呼びかけた。
実験では、約500人の参加者がAIを使って法科大学院入試(LSAT)の論理的推論問題を解くように指示された。実験の結果、大多数のユーザーはChatGPTを使用する際、一度だけ質問を行い、AIの回答を深く考えたり確認したりしなかった。研究者は、この「認知の外部化(cognitive offloading)」現象が、ユーザーが自分の能力を正確に判断することを制限している可能性があると述べた。
この問題を解決するために、研究者はAIがユーザーに、自分の推論プロセスをさらに説明できるかを尋ねることで、ユーザーがAIとの対話にさらに深く関与し、批判的思考能力を高めることを促すことを提案した。
ポイント:
🔍 多くの人がAIを使用する際に自分の認知能力を過大評価しており、特にAIの知識が高いユーザーにとってその傾向が強い。
🤖 ChatGPTなどのAIツールを使用する際、人々は自分の能力を正しく判断できない傾向がある。
📈 研究は、AIがユーザーのメタ認知能力を促進し、より深い思考と振り返りを奨励すべきであると提案している。
