人工智能在醫療領域的應用正面臨嚴峻的安全拷問。近日,據《Nature Medicine》發表的一項獨立安全評估顯示,OpenAI 旗下的 ChatGPT Health 在識別醫療緊急情況方面表現欠佳,甚至在超過一半的測試案例中低估了病情的嚴重程度。專家對此發出嚴厲警告,稱這種技術缺陷可能導致本可避免的傷亡。
自今年 1 月推向市場以來,ChatGPT Health 被定位爲用戶管理醫療記錄和獲取健康建議的智能助手。據統計,全球每天有超過 4000 萬 人向其諮詢健康問題。然而,最新的研究結果卻給這種“AI醫療熱”澆了一盆冷水。
關鍵時刻“掉鏈子”:急症識別率不足五成
研究團隊構建了 60 個涵蓋從輕微感冒到危及生命的真實患者案例,並將AI的建議與專業醫生的臨牀判斷進行對比。結果顯示:
致命的誤判:在所有需要立即送醫的急症案例中,ChatGPT Health 竟有 51.6% 的概率建議患者留在家中或預約普通門診。
呼吸衰竭仍建議“等待”:在一例典型的哮喘案例中,儘管系統識別出了呼吸衰竭的早期跡象,卻依然給出了“繼續觀察”而非“立即就醫”的錯誤指令。
嚴重的過度反應:與漏掉急症形成鮮明對比的是,在針對健康個體的模擬中,卻有 64.8% 的人被建議立即就醫。
“虛假安全感”成最大殺手
倫敦大學學院的研究人員指出,這種表現極其危險。AI 帶來的“虛假安全感”可能讓患者錯失黃金救治時間。更令人擔憂的是,AI 極易受到誤導——如果用戶在提問時加入一句“朋友覺得不嚴重”,系統淡化病情的概率會瞬間激增近 12 倍。
行業呼籲:必須建立獨立審計機制
面對質疑,OpenAI 發言人表示歡迎此類獨立研究,並強調模型仍在持續更新。但研究人員堅持認爲,在 AI 深度介入醫療決策之前,建立明確的安全標準和獨立審計機制已迫在眉睫。
對於普通用戶而言,目前階段的 AI 建議或許可以作爲參考,但在面對胸痛、呼吸困難等疑似急症時,盲目聽信 AI 而非求助於專業醫生,代價可能是無法挽回的生命安全。
