隨着全球對青少年網絡安全的關注度日益提高,兩大人工智能巨頭OpenAI和Anthropic於本週四宣佈,將採取更積極的措施來識別和保護未成年用戶。這兩家公司正計劃通過 AI 模型預測用戶年齡,並針對青少年羣體更新產品指南。
OpenAI:安全高於一切,更新青少年互動準則
OpenAI在其最新發佈的“模型規範”中新增了四項針對18歲以下用戶的核心原則。公司明確表示,未來 ChatGPT 在與13至17歲的青少年互動時,將把“青少年安全”放在首位,即便這可能會與其他目標(如最大限度的思想自由)產生衝突。
具體舉措包括:
安全引導:在面臨風險選擇時,引導青少年選擇更安全的選項。
現實支持:鼓勵青少年進行線下互動,並在對話進入高風險領域時,主動提供可信賴的線下支持或緊急干預機構的聯繫方式。
溝通風格調整:要求 AI 以“熱情且尊重”的方式對待青少年,避免居高臨下的語氣。
此外,OpenAI證實正在開發一種年齡預測模型。如果系統檢測到用戶可能未滿18歲,將自動應用青少年保護機制。
Anthropic:通過對話特徵識別未成年人
由於Anthropic的政策規定不允許18歲以下用戶使用其聊天機器人 Claude,該公司正在開發一套更嚴厲的檢測系統。該系統旨在識別對話中暗示用戶可能是未成年人的“微妙跡象”,並能夠自動識別並關停違規賬號。
Anthropic還展示了其在減少“諂媚行爲”(sycophancy)方面的進展,認爲減少 AI 對用戶錯誤或有害傾向的盲目順從,有助於保護未成年人的心理健康。
此次行業巨頭的集體發力,背景是立法者正加大對 AI 公司在心理健康影響方面的施壓。OpenAI此前曾深陷一起涉及青少年自殺的訴訟,指控稱其機器人提供了錯誤的引導。爲此,公司已在近期推出了家長控制功能,並嚴格限制 AI 討論自殘等極端話題。