OpenAI 近期宣佈了一項重要的政策更新,旨在改變其人工智能模型的訓練方式,強調 “知識自由” 的重要性,無論話題多麼具有挑戰性或爭議性。這一變化意味着,ChatGPT 將能更全面地回答問題,提供更多視角,減少拒絕討論某些話題的情況。
在新的187頁模型規範中,OpenAI 提出了一個新的指導原則:不要撒謊,既不要發表不真實的陳述,也不要省略重要的上下文。新設立的 “共同尋求真相” 部分表示,OpenAI 希望 ChatGPT 在面對爭議性話題時能夠保持中立,不偏向任何一方。這意味着,ChatGPT 會在討論如 “黑人的命也是命” 與 “所有人的命也是命” 時,儘量呈現兩者觀點,而不是拒絕回答或選擇立場。
圖源備註:圖片由AI生成
儘管 OpenAI 堅持其不進行 “審查” 的立場,但部分保守派人士卻認爲,OpenAI 在過去數月中確實存在內容審查的問題,尤其是他們覺得 AI 的偏見明顯傾向於中左派。OpenAI 首席執行官山姆・阿爾特曼(Sam Altman)也承認,ChatGPT 的偏見是一個需要解決的 “缺陷”。
不過,OpenAI 的新政策也並非無底線,ChatGPT 仍會拒絕回答某些明顯錯誤或不當的問題。隨着政策的變化,OpenAI 希望用戶能夠獲得更多的言論自由,甚至移除了對違反政策用戶的警告提示。此舉被視爲爲了減少用戶感受到的 “審查” 壓力。
而在更大的背景下,硅谷的價值觀正在發生轉變。許多公司開始縮減過去以多樣性、公平與包容性爲核心的政策,OpenAI 似乎也在逐步放棄這些立場。正如其他大型科技公司一樣,OpenAI 正面臨着與新特朗普政府的關係影響,以及在信息領域與谷歌的競爭。
在這個充滿爭議與挑戰的環境中,如何平衡自由言論與內容的安全性,成爲了 OpenAI 及其他科技公司的重要議題。