OpenAI 於本週四發佈了一份針對青少年使用人工智能的安全標準藍圖,旨在引導公衆和立法者關注青少年在使用 AI 時的安全問題。

這份藍圖首次與 Axios 共享,正值多個州正在考慮制定 AI 安全法案之際,特別是美國參議院也在推進一項禁止未成年人使用聊天機器人的法案。與此同時,OpenAI 面臨一宗涉及未成年人自殺的高調訴訟,這引發了公衆對其平臺在青少年用戶安全防護方面的廣泛關注。

OpenAI

圖源備註:圖片由AI生成

OpenAI 在推動 AI 技術應用於學校的同時,認爲設定相關安全框架尤爲重要。該藍圖提出,青少年應能安全、可信地接觸 AI,並防範潛在的傷害。具體來說,OpenAI 建議 ChatGPT 應根據用戶年齡的不同,做出差異化的迴應,以便更好地保護青少年。例如,15歲的青少年和成年人在使用 AI 時的互動應有所不同。

在藍圖中,OpenAI 列出了五項針對青少年保護的具體建議。這些建議包括:識別平臺上的青少年用戶,並以適合其年齡的方式進行處理;通過相關政策,禁止 AI 系統展示自殺、自殘及敏感或暴力內容,避免鼓勵危險行爲或不切實際的身體標準;在無法確認用戶年齡的情況下,默認將其視爲未滿18歲進行處理;爲家庭提供家長控制工具,以便家長可以管理青少年賬戶的使用情況;以及拓展基於最新研究成果的防護功能,保護青少年與 AI 的互動。

不過,年齡驗證技術仍然面臨挑戰,許多未成年人可能會輕易繞過現有規則。爲了提高青少年用戶的安全性,OpenAI 正在探索多種措施,並希望能推動更多家庭和學校共同參與 AI 的規範及監督工作。

劃重點:

🌐 OpenAI 發佈青少年人工智能安全標準藍圖,關注青少年安全問題。  

🛡️ 藍圖建議根據用戶年齡差異化處理 AI 交互,保護青少年。  

👨‍👩‍👧‍👦 提出五項建議,包括家長控制工具,強化青少年使用安全。