最近,隨着人工智能技術的飛速發展,研究人員們提出了一個引人關注的想法:爲了更好地確認在線用戶是真人而非 AI 機器人,應該開始使用 “人類身份憑證”(Personhood Credential,簡稱 PHC)系統來替代傳統的 CAPTCHA 驗證。這個研究團隊包括了來自常春藤盟校和 OpenAI、微軟等公司的科學家們,他們在一篇尚未經過同行評審的論文中提出了這一概念。

他們擔心,隨着 AI 的普及,惡意行爲者將利用 AI 的強大能力,向網絡中灌輸大量非人類內容。AI 如今可以生成 “人類般” 的內容,甚至能夠僞裝成真實的人類進行在線活動,這讓 CAPTCHA 等傳統驗證方式顯得愈發無效。因此,PHC 系統的想法開始受到青睞。研究者們設想,政府或其他數字服務機構可以爲每個用戶發放一個唯一的身份憑證,用戶通過一種稱爲 “零知識證明” 的加密技術來驗證自己是真人,而無需透露具體信息。
憑證會被用戶數字化存儲在個人設備上,從而在一定程度上保護用戶的在線匿名性。這一系統不僅可以替代現有的 CAPTCHA 和生物識別技術,甚至可能提升人類驗證的效果。然而,研究者們也意識到 PHC 系統並非沒有缺陷。比如,很多人可能會將自己的 PHC 出售給 AI 垃圾信息發送者,這樣反而可能助長網絡垃圾內容的泛濫。同時,憑證發放機構的集中化問題也讓人擔憂,可能導致過於強大的權力集中在少數公司手中。
此外,對於一些不太精通互聯網的用戶,比如老年人,憑證系統可能會造成使用上的障礙。因此,研究者們建議政府應該考慮通過試點項目來測試 PHC 的可行性。但問題是,PHC 系統無疑會給用戶帶來新的數字負擔,而這些問題的根源在於技術公司。研究者指出,技術公司應當承擔起解決問題的責任,比如給 AI 生成的內容加上水印,或開發出能夠識別 AI 生成內容的技術。這樣的措施雖然也不是萬無一失,但至少將責任迴歸到技術的源頭上。
劃重點:
💡 研究人員提出 “人類身份憑證” 系統,旨在替代傳統 CAPTCHA 驗證,以確認在線用戶是真人。
🔒 PHC 系統利用加密技術保護用戶隱私,但可能導致憑證濫用和權力集中問題。
⚠️ 技術公司需對 AI 引發的問題承擔責任,考慮對 AI 生成內容進行水印標識等措施。
