近年、人工知能(AI)の医療分野への応用が拡大しています。最近の研究では、OpenAIが開発したチャットボットChatGPT-4が、診断精度において医師を上回ることが示され、広く議論と注目を集めています。

この研究は「JAMAネットワークオープン」誌に掲載され、50人の医師が6つの複雑な症例について診断を行いました。その結果、ChatGPTの支援を受けた医師の平均得点は76%だったのに対し、ChatGPTを使用しなかった医師は74%にとどまりました。驚くべきことに、ChatGPT単独での診断精度は90%に達しました。

AI医療

画像出典:AI生成画像、画像ライセンス提供元Midjourney

研究者らは、参加者やAIモデルの事前知識によるバイアスを避けるため、公開されていない実際の症例を使用しました。これらの症例には、しばしば見過ごされる希少疾患であるコレステロール塞栓症など、複雑な医療状況が含まれていました。医師たちは、独立した医療専門家の評価に基づき、考えられる診断、代替案の排除、そして次の診断ステップを提案しました。多くの医師がChatGPTの支援を受けていたにもかかわらず、AIの性能には及ばない結果となりました。

研究では2つの主要な問題が明らかになりました。第一に、医師は特にChatGPTの提案が自身の見解と矛盾する場合、最初の診断に固執する傾向がありました。第二に、多くの医師はAIツールの能力を十分に活用しておらず、狭い範囲の質問しかせず、症例全体を分析できていませんでした。

専門家らは、現代のAIツールが言語モデルを通じて複雑な症例を綿密に分析することで、大きな可能性を示していると述べています。初期のコンピューター支援診断とは異なり、現代のAIツールは人間の推論を模倣しようとするのではなく、言語パターンを処理・予測することで優れた性能を発揮します。

しかしながら、専門家らは、AIを医療ワークフローに統合するプロセスは容易ではないと警告しています。AIトレーニングの不足、医師のAIへの抵抗感、倫理的・法的懸念など、AIを「医師の拡張ツール」として活用し、診断精度向上に役立てる可能性を阻害する課題が数多く存在します。

研究者らは、チャットログを分析した結果、多くの医師がChatGPTの提案を無視していることを発見しました。この抵抗感は、一部、自身の専門知識への過信と、AIの診断能力への理解不足に起因しています。

この研究結果は、信頼性と可用性を高めるために、AI開発者と医療専門家の協力の重要性を強調しています。将来的には、AIの役割は診断を超え、個別化された治療計画や患者管理などの分野にまで拡大する可能性があります。AIは優れたツールですが、それを医療現場に効果的に統合するには、依然として多くの努力が必要です。

要点:

🩺 ChatGPT-4は医療診断研究において90%の精度を示し、ChatGPT支援を受けた医師の76%を上回りました。

📊 医師は自身の最初の診断に過信し、AIの提案を無視する傾向がありました。

🤖 AIツールは医療において大きな可能性を秘めていますが、トレーニング不足と信頼性の欠如が現在の主要な課題です。