最近的一項研究像警報一樣響起,提醒我們在面對 AI 給出的醫療建議時可不能掉以輕心。德國和比利時的研究人員對微軟的 Bing C0pilot 進行了全面測試,這款引擎號稱能夠回答美國最常見的10個醫療問題和50種熱門藥物相關問題。然而,生成的500個答案中,竟然有24% 的內容與現有醫學知識完全不符,3% 的回答更是錯誤得離譜。

AI 醫療

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

問題不僅僅在於錯誤,令人驚訝的是,42% 的回答可能會對患者造成中度或輕度傷害,而足足22% 的回答甚至可能導致死亡或嚴重傷害!從這些數據來看,AI 的建議彷彿是一道 “高風險” 的菜餚,誰敢輕易嘗試呢?

更糟糕的是,這些 AI 答案的平均完整性評分僅有77%,最差的答案竟然只有23% 完整,準確性方面有26% 的答案和參考數據相左,超過3% 的回答直接與事實背道而馳。而與科學共識一致的答案也只有54%,39% 的答案則是和科學觀點背道而馳。

這項研究的結果已在《BMJ Quality & Safety》期刊上發佈,研究人員再三強調,儘管 AI 技術如日中天,但在醫療領域,我們還是應該依賴專業的醫療人員來獲取準確和安全的藥物信息。畢竟,誰也不想成爲那個 “被 AI 耍了” 的人,對吧?