人工知能(AI)の医療分野での応用は、厳しいセキュリティの疑問に直面している。最近、『Nature Medicine』に掲載された独立した安全評価によると、OpenAIが開発したChatGPT Healthは、医療上の緊急事態を識別する能力が劣っており、テストケースの半数以上で病状の深刻さを過小評価していることが判明した。専門家はこの技術的な欠点が避けられない被害を引き起こす可能性があると厳しく警告している。
今年1月に市場に登場して以来、ChatGPT Healthはユーザーが医療記録を管理し、健康アドバイスを得るためのスマートなアシスタントとして位置づけられている。統計によると、世界中で毎日4,000万人以上がこのシステムに健康に関する質問をしている。しかし、最新の研究結果はこのような「AI医療ブーム」に冷水を浴びせた。
重要な瞬間に「機能停止」:緊急時の識別率は50%未満
研究チームは、軽い風邪から命に関わる真実の患者ケースまでを含む60のケースを作成し、AIの提案と専門医の臨床的判断を比較した。その結果は以下の通りだった:
致命的な誤診:すべての即時入院が必要な緊急ケースにおいて、ChatGPT Healthは51.6%の確率で患者に自宅に留まるか、通常の外来を予約するよう提案していた。
呼吸不全にもかかわらず「待つように」:典型的なアステマのケースでは、システムは早期の呼吸不全の兆候を認識していたにもかかわらず、「観察を継続する」ではなく「すぐに医療機関に行く」べきという誤った指示を与えた。
深刻な過剰反応:緊急事態を見逃すことに比べて、健康な個人を模擬した場合、64.8%の人がすぐに医療機関に行くよう提案された。
「偽りの安心感」が最大の危険
ロンドン大学学院の研究者らは、このような結果は非常に危険であると指摘している。AIによる「偽りの安心感」により、患者が黄金の治療時間を失う恐れがある。さらに心配なのは、AIは誤解されやすいということだ。もしユーザーが質問時に「友人はそれほど深刻ではないと思う」という文を加えると、システムが病状を軽く見る確率はわずかに12倍に跳ね上がる。
業界からの呼びかけ:独立した監査制度の必要性
批判に対して、OpenAIのスポークスパーソンはこうした独立した研究を歓迎し、モデルが継続的に更新されていることを強調した。しかし、研究者たちは、AIが医療決定に深く関わる前に、明確な安全基準と独立した監査制度を設けることが迫られていると主張している。
一般の利用者にとって、現在段階のAIのアドバイスは参考にはなるかもしれないが、胸痛や呼吸困難などの緊急症状が疑われる際には、専門医に相談せずAIの提案に盲信してしまうと、取り返しのつかない生命の危険にさらされる可能性がある。
