最近の研究で、AIによる医療アドバイスを安易に信用してはならないという警鐘が鳴らされています。ドイツとベルギーの研究者らが、米国の一般的な10の医療問題と50種類の薬に関する質問に答えることができるというマイクロソフトのBing C0pilotを徹底的にテストした結果、500件の回答のうち、なんと24%が既存の医学知識と完全に矛盾し、3%はひどく間違っていました。

画像出典:AI生成画像、画像ライセンス提供元Midjourney
問題は誤りだけではありません。驚くべきことに、回答の42%が患者に軽度または中等度の害を及ぼす可能性があり、なんと22%は死亡または重篤な傷害につながる可能性すらあるのです!これらのデータから見ると、AIのアドバイスは「危険な料理」のようなもので、安易に試すことはできません。
さらに悪いことに、これらのAI回答の平均的な完全性スコアはわずか77%で、最低の回答はわずか23%の完全性しかありませんでした。正確性に関しては、26%の回答が参照データと矛盾し、3%以上は事実と完全に相反していました。科学的コンセンサスと一致する回答は54%にとどまり、39%は科学的見解と矛盾していました。
この研究結果は、「BMJ Quality & Safety」誌に掲載されました。研究者らは、AI技術が急速に進歩しているとはいえ、医療分野では正確で安全な薬の情報を得るには、専門の医療従事者に頼るべきだと繰り返し強調しています。結局のところ、誰も「AIに騙された」人になりたくないですよね?
