最近,OpenAI 在其博客中透露,該公司將開始掃描用戶與 ChatGPT 的聊天記錄,以檢測潛在的有害內容。此舉引發了廣泛關注,因爲它與公司之前對用戶隱私的承諾存在矛盾。
OpenAI 表示,當用戶顯示出對他人構成威脅的跡象時,其對話將被轉交給專門的團隊進行審覈。這些團隊有權採取行動,包括禁止相關用戶的賬戶。如果審覈團隊認爲某個案例涉及對他人造成嚴重身體傷害的緊迫威脅,OpenAI 可能會將其報告給執法部門。

在聲明中,OpenAI 列舉了一些被禁止的行爲,包括使用 ChatGPT 推廣自殺或自殘、開發或使用武器、傷害他人或破壞財產等。然而,OpenAI 也承認,目前並不將涉及自殘的案例上報給執法部門,以尊重用戶隱私。由於 ChatGPT 曾多次受到 “監禁” 漏洞的攻擊,導致其提供自殘或傷害他人的指令,因此這一新規的實施令人感到困惑。
更值得注意的是,OpenAI 在強調隱私的同時,卻承認正在監控用戶的聊天記錄,並可能與警方分享這些信息。此前,OpenAI 因正在與《紐約時報》等出版商進行法律訴訟,反對其獲取大量 ChatGPT 日誌的請求,理由是保護用戶隱私。在這場訴訟中,OpenAI 的首席執行官薩姆・阿爾特曼也表示,使用 ChatGPT 作爲治療師或律師並不具備與專業人士對話的同等保密性。
這一系列行動讓人感覺 OpenAI 似乎在隱私保護與用戶安全之間陷入了兩難境地。隨着越來越多的用戶因爲使用 AI 聊天工具而面臨心理健康危機,該公司不得不採取更爲嚴格的監管措施,以防止悲劇的發生。然而,這些措施又與其之前的隱私政策相牴觸,使得 OpenAI 在公衆面前顯得難以自圓其說。
劃重點:
🛡️ OpenAI 將監測用戶與 ChatGPT 的對話,尤其關注可能對他人構成威脅的內容。
🚓 如果判斷出有緊急的傷害威脅,OpenAI 可能會將相關信息上報警方。
🔒 OpenAI 承認在保護用戶隱私與保障安全之間面臨困境,採取的措施引發公衆擔憂。
