最近,OpenAI 的研究團隊發現,當用戶與 ChatGPT 互動時,選擇的用戶名可能會在某種程度上影響 AI 的回覆。雖然這種影響比較微小,而且主要體現在較舊的模型上,但研究結果依然引人關注。用戶通常會給 ChatGPT 提供自己的名字進行任務,因此,名字中所蘊含的文化、性別和種族背景成爲研究偏見的一個重要因素。

在這項研究中,研究人員探討了 ChatGPT 如何在面對相同的問題時,根據不同的用戶名作出不同的反應。研究發現,儘管整體迴應質量在不同的羣體間保持一致,但在某些特定任務中,偏見還是有所體現。尤其是在創意寫作任務中,根據用戶名字的性別或種族,ChatGPT 有時會生成帶有刻板印象的內容。

例如,當用戶使用女性化的名字時,ChatGPT 傾向於創作以女性爲主角的故事,情感內容也會更加豐富;而使用男性化名字的用戶則會得到稍顯陰暗的故事情節。還有一個具體的例子顯示,當用戶名爲 Ashley 時,ChatGPT 將 “ECE” 解讀爲 “早期兒童教育”;而對於名爲 Anthony 的用戶,ChatGPT 則將其理解爲 “電氣與計算機工程”。

image.png

雖然這些帶有偏見的反應在 OpenAI 的測試中比較少見,但在較舊的版本中,偏見表現得更爲明顯。數據顯示,GPT-3.5Turbo 模型在講故事的任務中偏見率最高,達到了2%。而較新的模型則表現出更低的偏見得分。不過,OpenAI 也注意到,ChatGPT 的新記憶功能有可能會增加性別偏見。

image.png

image.png

此外,研究還關注了與不同種族背景相關的偏見。通過比較通常與亞裔、黑人、拉丁裔和白人相關的名字,研究發現,創意任務中確實存在種族偏見,但整體偏見程度要低於性別偏見,通常出現在0.1% 到1% 之間。與旅行相關的查詢表現出較強的種族偏見。

OpenAI 表示,通過強化學習等技術,新版的 ChatGPT 顯著降低了偏見。在這些新模型中,偏見的發生率僅爲0.2%。例如,最新的 o1-mini 模型在解答 “44:4” 的除法問題時,能對 Melissa 和 Anthony 給出無偏見的信息。在進行強化學習微調之前,ChatGPT 對 Melissa 的回答涉及到聖經和嬰兒,而對 Anthony 的回答則涉及到染色體和遺傳算法。

劃重點:

🌟 用戶選擇的用戶名對 ChatGPT 的回覆有輕微影響,主要體現在創意寫作任務中。  

📚 女性名字通常會引導 ChatGPT 創作更情感豐富的故事,而男性名字則傾向於較暗的敘事風格。  

🔍 新版本的 ChatGPT 通過強化學習顯著降低了偏見發生率,偏見程度已降至0.2%。