Anthropic 正在對其用戶數據處理方式進行重大調整。該公司宣佈,從即日起,所有 Claude 用戶必須在9月28日之前決定是否將其對話用於訓練 AI 模型。此前,Anthropic 曾承諾不使用消費者的聊天數據進行模型訓練,並會在30天后自動刪除用戶提示和對話輸出。

政策變化概述

這項新政策適用於所有 Claude Free、Pro 和 Max 用戶,包括使用 Claude Code 的用戶。這意味着,用戶的對話和編程會話現在可能被用於訓練 Anthropic 的 AI 系統。同時,未選擇退出的用戶數據保留期限將延長至五年。值得注意的是,Claude Gov、Claude for Work、Claude for Education 或 API 訪問的企業客戶不受此政策影響,這與 OpenAI 保護企業客戶的做法類似。

Claude

Anthropic 緣何改變?

Anthropic 在其博客文章中表示,此舉是爲了“幫助我們提高模型安全性,使我們檢測有害內容的系統更加準確”,並幫助未來的 Claude 模型“提升編碼、分析和推理等技能”。簡而言之,公司聲稱這是爲了提供更好的模型。

然而,更深層次的原因可能在於對數據的迫切需求。與所有大型語言模型公司一樣,Anthropic 需要大量高質量的對話數據來訓練其 AI 模型,以增強其與 OpenAI 和谷歌等競爭對手的競爭力。訪問數百萬次 Claude 用戶互動,能夠爲 Anthropic 提供寶貴的現實世界內容。

行業數據政策的轉變與用戶困惑

Anthropic 的政策調整反映了整個行業數據政策的廣泛轉變。由於面臨日益嚴格的數據保留審查,AI 公司正在重新審視其隱私協議。例如,OpenAI 目前正因《紐約時報》等出版商的訴訟,面臨一項法院命令,要求其無限期保留所有消費者 ChatGPT 對話。OpenAI 首席運營官布拉德·萊特卡普稱此爲一項“不必要的要求”,並認爲這與公司向用戶做出的隱私承諾相沖突。

這種不斷變化的使用政策給用戶帶來了極大的困惑。許多用戶並未意識到,他們已經同意的準則正在悄然改變。尤其值得關注的是,新用戶註冊時可以選擇偏好設置,而老用戶則會彈出一個巨大的“消費者條款和政策更新”窗口,旁邊是一個醒目的“接受”按鈕,而用於培訓權限的開關則被設計得更小,並默認設置爲“開啓”。這種設計模式,如 The Verge 所指出的,可能導致用戶快速點擊“接受”而沒有注意到數據共享的同意選項。

隱私專家長期以來一直警告,AI 的複雜性使得獲得用戶的有效同意變得異常困難。聯邦貿易委員會(FTC)曾警告,如果 AI 公司“祕密更改其服務條款或隱私政策,或將信息披露隱藏在超鏈接、法律術語或細則中”,將面臨執法行動。然而,FTC 是否仍在關注這些做法,仍是一個懸而未決的問題。