OpenAI於10月29日正式更新ChatGPT使用政策,明確禁止模型提供專業醫療、法律或財務建議。此舉旨在規避監管風險、降低誤導隱患,重塑AI在高風險領域的應用邊界。新規核心內容包括:拒絕解讀醫學影像、輔助診斷、起草或解釋法律合同、提供個性化投資策略或稅務規劃。

用戶若提出此類需求,系統將統一回復引導諮詢人類專家。政策覆蓋ChatGPT全部模型及API接口,確保執行一致性。專業人士仍可用於一般性概念討論或數據整理,但不得直接面向終端用戶輸出“受託性”建議。此調整受全球監管驅動。歐盟《人工智能法案》即將生效,將高風險AI納入嚴格審查;美國FDA對診斷類AI工具要求臨牀驗證。OpenAI此舉避免被認定爲“軟件即醫療設備”,同時防範潛在訴訟。業內認爲,這是對歐盟罰款(最高GDP6%)與美國法律風險的主動應對。
用戶反應兩極。部分個體用戶遺憾失去“低成本諮詢”渠道,稱曾依賴AI節省專業費用;但醫療與法律界普遍支持,認爲AI“僞專業”輸出易引發誤診或糾紛。數據顯示,超40% ChatGPT查詢屬建議類,醫療與財務佔比近30%,政策或導致短期流量下滑。行業影響深遠。Google、Anthropic等或跟進限制,垂直AI工具(如認證版法律/醫療模型)有望興起。中國企業如百度已先行合規,國內監管趨嚴下,創新需在“沙盒”機制中探索。
OpenAI強調,目標是“平衡創新與安全”。此更新延續其Model Spec框架,預計2025年2月進一步迭代。AI從“全能助手”向“有限輔助”轉型,已成行業共識。未來,技術突破與倫理約束將並行,GPT-5時代或帶來新平衡。
