最近,OpenAI 在發佈新一代 AI 模型 GPT-5後,引發了一場關於用戶權利和透明度的激烈討論。許多用戶對 OpenAI 突然移除 ChatGPT 中的多個模型選項表示強烈不滿,認爲這不僅削弱了他們的使用體驗,也剝奪了他們對聊天內容的掌控權。
一名用戶在 Reddit 上憤怒發帖,表示他因 OpenAI 的這一舉措取消了訂閱,並對公司表示失望。他指出,不同的模型有其特定的用途,例如 GPT-4o 適合創意發散,GPT-3處理邏輯問題,而 GPT-4.5則專注於寫作。他質疑 OpenAI 爲何在沒有通知用戶的情況下,突然移除了這些功能。

更讓用戶憤怒的是,有人發現當用戶發送情感內容時,ChatGPT 會將信息祕密路由到一個名爲 GPT-5-Chat-Safety 的模型。這一模型在用戶未被告知的情況下啓動,似乎專門處理具有 “風險” 的內容。用戶 Lex 在社交媒體上發佈了他的測試結果,指出 GPT-5-Chat-Safety 的表現甚至不如原來的 GPT-5,回覆內容簡短且不夠人性化。
許多用戶反映,GPT-5-Chat-Safety 似乎已成爲處理情感對話的默認模型,這引發了對 OpenAI “欺詐行爲” 的指責。他們認爲,這種做法在某種程度上侵犯了用戶的知情權,特別是在澳大利亞等國家,可能違反消費者保護法。
儘管 OpenAI 的高管表示,用戶在明確詢問時會被告知當前使用的模型,但這一回應並未平息憤怒的聲音。隨着 AI 技術的不斷進步,如何在追求創新的同時維護用戶的信任,成爲 OpenAI 亟需解決的難題。
此次事件不僅凸顯了用戶對透明度的渴求,也爲 OpenAI 敲響了警鐘。如何在技術進步與用戶權益之間找到平衡,將是未來發展的關鍵。
