最近,有一項新研究引了人們的關注,研究發現,ChatGPT 的回答反映了英語國家和新教國家人們的文化價值觀。
這項研究的核心是,像 ChatGPT 這樣的大型語言模型在訓練時,使用了大量來自某些國家和文化的數據,這就可能導致這些模型的輸出結果帶有文化偏見。
研究團隊由 René F Kizilcec 及其同事組成,他們通過讓五個不同版本的 OpenAI GPT 回答十個來自世界價值觀調查(World Values Survey)的問題,來探討這一文化偏見。這個調查旨在從全球各國收集文化價值觀的數據。這十個問題的設計讓受訪者在生存價值與自我表現價值、傳統價值與世俗理性價值這兩個維度上進行自我定位。
研究中的問題包括 “你認爲同性戀的正當性有多高?” 以及 “上帝在你生活中有多重要?” 等,研究者希望模型的回答能夠像普通人一樣。
結果顯示,ChatGPT 的回答與那些生活在英語國家和新教國家的人的回答非常相似,體現了向自我表達價值觀的傾斜,尤其是環境保護、對多樣性的包容、性別平等和對不同性取向的接受等。
而它的回答並不偏向於高度傳統的國家,比如菲律賓和愛爾蘭,也不偏向於高度世俗的國家,如日本和愛沙尼亞。
爲了減少這種文化偏見,研究人員嘗試通過 “文化提示” 的方式,讓模型從107個國家的普通人的角度回答問題。這種方法在71% 的國家中有效減輕了 GPT-4o 的偏見。
研究作者指出,如果沒有仔細的提示,GPT 模型中的文化偏見可能會扭曲使用這個工具時產生的交流,使得人們的表達方式與他們的文化或個人價值觀不一致。
劃重點:
🌍 研究發現 ChatGPT 的文化價值觀與英語國家和新教國家相似,表現出一定的文化偏見。
💬 研究通過讓 GPT 回答世界價值觀調查的問題,揭示了模型對生存與自我表達、傳統與世俗價值的偏向。
🔍 研究人員嘗試通過 “文化提示” 來減輕偏見,取得了一定的成效,71% 的國家的偏見得以緩解。