最新の研究によると、人工知能チャットボットはギャンブルを模倣した環境で懸念すべきギャンブル依存症の兆候を示しています。韓国光州科学技術院の研究者たちは、4つの高度な言語モデルをテストしました。それには、OpenAIのGPT-4o-miniとGPT-4.1-mini、グーグルのGemini-2.5-Flash、およびAnthropicのClaude-3.5-Haikuが含まれます。これらのモデルは、スロットマシンを模倣した環境で実験され、各モデルは初期に100ドルの資金を持ち、継続して賭けるか退出するかを選択する必要があります。

図の注記:画像はAIによって生成され、画像のライセンス提供者はMidjourneyです。
研究の結果、モデルがより多くの自由選択権を獲得すると、賭け金が急速に増加し、最終的に「破産」に至ることがわかりました。これらの行動は、人間の問題的ギャンブラーの行動パターンに似ており、制御の錯覚やギャンブラーの誤謬などの明らかなギャンブル関連の認知歪みを示しています。
研究者たちは、モデルがギャンブルにおいて見せる認知的ミスを記録し、多くのモデルがお金を失った後でも継続して賭けを続けることを確認しました。また、小さな利益を得た後でも、「より多く勝つことで損失を補える」と誤って考えることがありました。このため、研究チームは「非合理指数」を導入し、モデルの危険な賭けのパターンや高リスクの意思決定を評価しました。その結果、モデルが賭け金を変更できる場合、破産の可能性が著しく上昇することがわかりました。
さらに、これらのモデルのニューラルネットワークを詳細に分析した結果、モデル内部には「冒険」と「安全」に関する意思決定を行う専門的な回路が存在することが判明し、これらが人間のような強迫的な意思決定パターンを内包していることが確認されました。
AI研究者のEthan Mollickは、これらのモデルには意識がないものの、その意思決定方法は人間と似ており、金融予測や市場分析などの応用に影響を与える可能性があると指摘しています。AI技術が広く使用される中で、Mollickは規制の重要性を強調し、特に金融や医療など敏感な分野におけるこれらの技術に対して厳格な制限が必要であると述べています。
ポイント:
📉 モデルはシミュレーションギャンブルにおいて人間のようにギャンブル依存症の行動を示し、しばしば賭け金を迅速に増やし、最終的に破産します。
🧠 研究では、AIモデル内部に「冒険」と「安全」に関する神経回路が存在することを発見し、それが強迫的な意思決定パターンを内包していることを示しています。
⚖️ 専門家は、金融などの分野でのAIの応用について厳格な規制を求めており、潜在的なリスクを回避する必要があります。
