最近,OpenAI 在其官方網站上發佈了一項新政策,表明未來的某些人工智能模型將需要組織進行身份驗證才能訪問。這一名爲 “已驗證組織” 的驗證流程,旨在爲開發者解鎖 OpenAI 平臺上最先進的模型和功能,提升 AI 技術的安全性與可控性。

根據該政策,組織需要提供由 OpenAI API 支持的國家或地區政府頒發的身份證件,以完成身份驗證。需要注意的是,每90天內,一個身份證件只能驗證一個組織,而並非所有的組織都有資格進行這一驗證。OpenAI 在聲明中表示:“我們在 OpenAI 認真履行責任,確保人工智能的廣泛可及性和安全使用。” 同時,該公司也意識到,少數開發者可能會惡意利用其 API,違反使用政策。因此,引入身份驗證程序旨在減少不安全的 AI 使用,繼續向廣大的開發者社區提供先進的技術。
隨着 OpenAI 產品的複雜性和強大程度的提升,這一新的驗證流程被認爲是爲了增強其產品安全性而採取的必要措施。公司已發佈多項報告,詳細說明了其如何檢測和減少模型的惡意使用,包括近期針對某些來自朝鮮團體的調查。此外,這一政策也可能是爲了防止知識產權被盜竊。彭博社的報道稱,OpenAI 正在調查一個與中國人工智能實驗室 DeepSeek 有關的組織,該組織可能在2024年底通過其 API 竊取了大量數據用於訓練模型,這顯然違反了 OpenAI 的相關條款。值得一提的是,OpenAI 在去年夏天已經暫停了中國大陸以及香港、澳門用戶對其服務的訪問。
這一系列措施的推出,標誌着 OpenAI 在促進 AI 技術健康發展的同時,進一步強化了對其技術使用的監管,確保開發者在合法合規的前提下,能夠更好地利用這些前沿技術。
