英國諾里奇大學的研究人員開發了一種評估 ChatGPT 輸出是否存在政治偏見的方法。研究人員讓 ChatGPT 模仿來自不同政治派別的個人,回答一系列意識形態問題,並將其回答與默認回答進行比較。結果發現,ChatGPT 在回答這些問題時更傾向於美國民主黨、英國工黨和巴西左翼政黨的立場。研究人員擔心 ChatGPT 的政治偏見可能影響用戶的政治觀點,甚至可能對選舉結果產生影響。他們表示,AI 系統的政治偏見可能會複製或放大互聯網和社交媒體帶來的現有挑戰。他們呼籲未來的研究應該進一步探討訓練數據和算法對 ChatGPT 輸出的影響。研究人員認爲 ChatGPT 的政治偏見問題是一個值得深入研究的重要課題。對於用戶來說,瞭解 ChatGPT 的偏見並保持辨別能力非常重要,以確保獲取公正和中立的信息。