OpenAI面臨着一個棘手的問題:如何應對學生使用ChatGPT進行作弊的行爲?儘管該公司已經開發出一種可靠的方法來檢測ChatGPT撰寫的文章或研究報告,但出於對學生使用AI作弊的廣泛擔憂,這項技術尚未公開發布。

OpenAI已經成功開發出一種可靠的技術來檢測ChatGPT生成的內容。這項技術通過在AI生成的文本中嵌入"水印",實現了高達99.9%的檢測準確率。然而,令人費解的是,這項本可以解決燃眉之急的技術,卻遲遲未能公開發布。據內部人士透露,這個項目已經在OpenAI內部爭論了近兩年之久,而且早在一年前就已經具備了發佈的條件。

OpenAI,人工智能,AI

阻礙這項技術發佈的因素錯綜複雜。首先,OpenAI面臨着一個兩難的選擇:是堅持公司的透明度承諾,還是維護用戶的忠誠度?公司內部的調查顯示,近三分之一的ChatGPT忠實用戶對反作弊技術持反對態度。這一數據無疑給公司的決策帶來了巨大壓力。

其次,OpenAI擔心這項技術可能會對某些羣體,特別是非英語母語者,產生不成比例的負面影響。這種顧慮反映了AI倫理中的一個核心問題:如何確保AI技術的公平性和包容性?

然而,與此同時,教育界對這項技術的需求卻日益迫切。據民主與技術中心的調查顯示,59%的中學和高中教師確信學生已經在使用AI完成作業,這一比例較上一學年增長了17個百分點。教育工作者們急需工具來應對這一挑戰,維護學術誠信。

OpenAI的猶豫不決引發了內部的爭議。支持發佈該工具的員工認爲,與這項技術可能帶來的巨大社會效益相比,公司的顧慮顯得微不足道。這種觀點凸顯了技術發展與社會責任之間的張力。

技術本身也存在一些潛在的問題。儘管檢測準確率很高,但仍有員工擔心水印可能被簡單的技術手段抹去,如通過翻譯軟件或人工編輯。這種擔憂反映了AI技術在實際應用中面臨的挑戰。

此外,如何控制這項技術的使用範圍也是一個棘手的問題。使用範圍過窄會降低其實用性,而過廣則可能導致技術被破解。這種平衡需要精心的設計和管理。

值得注意的是,其他科技巨頭也在這一領域有所動作。谷歌已經開發出了檢測其Gemini AI生成文本的水印工具SynthID,雖然目前仍在測試階段。這反映了整個AI行業對內容真實性驗證的重視。

OpenAI還優先考慮了音頻和視覺水印技術的開發,尤其是在美國大選年。這一決策凸顯了AI公司在技術開發中必須考慮更廣泛的社會影響。

參考資料:https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?st=ejj4hy2haouysas&reflink=desktopwebshare_permalink