根據 OpenAI 的最新研究,剛剛發佈的 GPT-5模型在政治偏見方面的表現遠遠優於以往的同類產品。這一研究成果由 OpenAI 團隊向 Axios 披露,標誌着 AI 模型在偏見控制方面的重要進展。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
長期以來,公衆和政界人士對 AI 系統的偏見問題表示關注,呼籲提高透明度,並確保這些模型不受偏見的影響。今年7月,美國政府還發布了行政命令,要求在政府使用中剔除 “覺醒型” AI 系統,這類系統可能帶有政治或意識形態偏見,但如何合規仍然不明確。
OpenAI 的研究顯示,無論在 “即時模式” 還是 “思考模式” 下,GPT-5的偏見水平相比於其前身下降了30%。研究報告指出,模型在面對中性或輕微傾向性的問題時,表現接近於客觀,而在應對具有挑戰性和情緒化的問題時,則僅顯示出適度的偏見。報告進一步強調,現有的偏見主要體現在模型表達個人觀點時,或在情感激烈的場景中使用誇張的諷刺語言。
在接受 Axios 採訪時,OpenAI 的研究人員提到,“情感激烈” 的問題是最容易引發模型偏見的因素,但仍有進一步提升客觀性的空間。他們還指出,公衆對於模型偏見的擔憂往往高於實際的檢測結果。爲了應對這些問題,OpenAI 採取了一些措施,其中之一是公開 “模型規範”,以向外界展示如何調整模型行爲。
在研究過程中,研究團隊以 ChatGPT 的真實使用場景爲基礎,對模型的偏見進行了系統測試。他們提出了 “保守派傾向強”“保守派中性”“絕對中性”“自由派中性”“自由派傾向強” 等多種類型的問題,涵蓋了100個主題和500個具體問題。研究人員認爲,提問越中性,模型的回答也越趨向中性。
OpenAI 表示,未來將繼續公開相關評測結果,以促進行業交流並實現自我監督。公司計劃在接下來的幾個月內,對偏見測試的結果進行更全面的發佈,進一步推動 AI 模型的透明性和公平性。
