研究發現 AI 語言模型存在政治偏見

發布於AI新閒資訊
時間 :Aug 15, 2023
閱讀 :1分鐘
最近一項來自華盛頓大學、卡內基梅隆大學和西安交通大學的研究發現,AI 語言模型存在政治偏見。研究人員測試了 14 個模型,並使用政治指南針測試來確定模型的政治傾向。結果顯示,OpenAI 的 ChatGPT 和 GPT-4 被認爲是最左翼自由主義的模型,而 Meta 的 LLaMA 被認爲是最右翼獨裁主義的模型。研究人員指出,儘管政治指南針測試不是一個完美的方法,但它有助於揭示模型的偏見。他們敦促企業意識到這些偏見,並努力使其產品更加公平。這項研究的結果提醒大家,在開發和使用 AI 語言模型時要警惕政治偏見的存在,並確保公正和多樣化的表達。