OpenAI最新向Axios披露的研究成果顯示,剛剛發佈的GPT-5模型在政治偏見控制方面取得突破性進展,偏見水平較前代產品降低30%。

長期以來,AI系統的偏見問題一直是公衆和政界關注的焦點。今年7月,美國政府發佈行政命令,要求政府使用的AI系統須剔除"覺醒型"特徵,避免政治或意識形態偏見,但具體合規標準仍不明確。

OpenAI

多維度測試驗證客觀性提升

OpenAI研究團隊基於ChatGPT真實使用場景,對GPT-5進行了系統性偏見測試。測試覆蓋100個主題、500個具體問題,問題類型涵蓋"保守派傾向強""保守派中性""絕對中性""自由派中性""自由派傾向強"等多個維度。

研究結果表明,無論在"即時模式"還是"思考模式"下,GPT-5面對中性或輕微傾向性問題時表現接近客觀,僅在應對情緒化問題時顯示出適度偏見。研究人員指出,現有偏見主要出現在模型表達個人觀點或使用誇張諷刺語言的情境中,且提問越中性,回答也越趨向中性。

透明度成爲關鍵突破口

OpenAI研究人員在採訪中坦言,"情感激烈"的問題最容易引發模型偏見,但仍有提升空間。值得注意的是,公衆對模型偏見的擔憂程度往往高於實際檢測結果。

爲增強透明度,OpenAI已公開"模型規範",向外界展示模型行爲調整機制。公司承諾未來幾個月將發佈更全面的偏見測試結果,以促進行業交流並實現自我監督,進一步推動AI模型的透明性和公平性。