長年、人々はAIが人間の知性を超えるかどうかを心配してきたが、最新の研究は興味深い現象を明らかにした。ChatGPTやClaudeなどの優れたAIモデルは、実際には人間の合理性を「過度に神格化」しているという。これらのモデルは、人間が意思決定をするときに非常に論理的で戦略的な振る舞いをすると仮定しているが、現実にはそうではない。
研究者たちは、古典的なゲーム理論の実験である「ケインズ・ミス・コンテスト(数字当てゲーム)」を通じてAIをテストした。参加者は他者の選択を予測して勝利を目指す必要があるが、理論上は深く論理的に推論する必要があるが、実際には人間はその理想状態に達しないことが多い。面白いことに、AIが人間と対戦するときには、相手の背景(大学生や専門家など)に応じて戦略を調整することができるが、依然として人間が最も合理的な選択をするものと考えている傾向がある。この「人間をあまりにも賢く考えすぎる」バイアスにより、AIは人間の実際の意思決定を予測する際にしばしば誤ってしまう。
この研究は、AIが人間の人格特性を正確に模倣できるとしても、経済予測や戦略モデリングなどの複雑なタスクにおいて、人間の非合理な行動への理解をどのように調整するかが、今後の技術開発の鍵となることを我々に思い出させてくれる。
ポイント:
🧠 認識にバイアスがある:ChatGPTなどのモデルは、人間が完全な論理的判断者であると仮定し、人間の行動における非合理的な要素を無視してしまう。
🎯 予測結果が不正確:AIは「過剰に考えすぎること」によって、博奕実験では相手の論理レベルを高めすぎて、現実に合った判断を失敗することが多い。
⚠️ 潜在的なアプリケーションのリスク:専門家は、このような認識の乖離が、人間の行動を正確に予測する必要のある経済モデリングなどの分野でのAIのパフォーマンスに影響を与える可能性があると警告している。
