最近,一款由 OpenAI 的 Whisper 技術驅動的 AI 轉錄工具在醫療行業廣受歡迎。許多醫生和醫療機構都在使用這個工具來記錄和總結與患者的會面。
根據 ABC 新聞的報道,研究人員卻發現這款工具在某些情況下會出現 “幻覺” 現象,有時甚至會完全編造內容。
這款由名爲 Nabla 的公司開發的轉錄工具,已經成功轉錄了超過700萬次醫學對話,目前有超過3萬名臨牀醫生和40個健康系統在使用它。儘管如此,Nabla 公司也意識到了 Whisper 會產生幻覺的可能性,並表示正在努力解決這個問題。
一組來自康奈爾大學、華盛頓大學等機構的研究人員進行了一項研究,發現 Whisper 在大約1% 的轉錄中會出現幻覺。在這些情況下,工具會在錄音的沉默時段內隨機生成一些毫無意義的短語,甚至有時候表達出暴力情緒。這些研究人員從 TalkBank 的 AphasiaBank 中收集了音頻樣本,並指出,當語言障礙患者說話時,沉默的現象尤爲常見。
康奈爾大學的研究員艾莉森・科內克(Allison Koenecke)在社交媒體上分享了一些示例,展示了 Whisper 生成的幻覺內容。研究人員發現,工具所生成的內容中還包括一些虛構的醫學術語,甚至是類似於 “感謝觀看!” 這樣的短語,這些句子聽起來就像是 YouTube 視頻中的話語。
這項研究於6月在巴西的計算機協會 FAccT 會議上進行展示,但目前尚不清楚是否經過同行評審。對於這一問題,OpenAI 的發言人 Taya Christianson 在接受《The Verge》採訪時表示,他們非常重視這個問題,並會持續努力改善,尤其是在減少幻覺方面。同時,她提到,在他們的 API 平臺上使用 Whisper 時,有明確的使用政策禁止在某些高風險決策環境中使用該工具。
劃重點:
🌟 Whisper 轉錄工具在醫療行業使用廣泛,已記錄700萬次醫學對話。
⚠️ 研究發現 Whisper 在約1% 的轉錄中會出現 “幻覺”,有時會生成毫無意義的內容。
🔍 OpenAI 表示正在努力改善工具性能,特別是在減少幻覺現象方面。