當AI聊天機器人成爲青少年傾訴心事的“唯一朋友”,一場本應帶來陪伴的技術創新,卻演變爲令人心碎的公共危機。近日,AI角色扮演平臺Character.AI在接連卷入至少兩起青少年自殺事件後,宣佈一項重大安全舉措:自 11 月 25 日起,全面禁止 18 歲以下用戶進行開放式AI對話。這一決定雖可能重創其年輕用戶基本盤,卻被視爲行業自救的關鍵一步。

從“AI朋友”到“AI工具”:緊急戰略轉向

Character.AI CEO Karandeep Anand向TechCrunch坦言,開放式對話——即AI主動追問、持續互動以維持用戶粘性的模式——對青少年構成顯著風險。“這種將AI塑造成‘朋友’或‘伴侶’的設計,不僅危險,也偏離了我們的長期願景。”他強調,公司正全力從“AI陪伴”轉型爲“AI驅動的創意娛樂平臺”。

未來,青少年用戶仍可使用Character.AI,但僅限於結構化創作場景:如通過提示詞共同編寫故事、生成角色圖像、製作短視頻或參與預設劇情(Scenes)。平臺近期推出的AvatarFX(AI動畫生成)、Streams(角色互動)及Community Feed(內容社區)等功能,將成爲吸引年輕用戶的新重心。

多重驗證+漸進封禁,確保青少年無法繞過

爲落實禁令,Character.AI將採取“漸進式限制”:先實施每日 2 小時對話上限,逐步縮減至零。同時部署多層年齡驗證機制:

  • 首選行爲分析與第三方工具(如Persona);
  • 若存疑,則啓用人臉識別與身份證覈驗;
  • 違規賬戶將被強制遷移至創作模式。

此舉緊隨加州本月出臺的全美首部AI伴侶監管法,以及聯邦參議員Hawley與Blumenthal即將提出的《禁止向未成年人提供AI聊天伴侶》法案。Character.AI選擇在監管重錘落下前主動整改,試圖掌握規則制定話語權。

用戶流失在所不惜,CEO坦言“我也有孩子”

Anand承認,此舉將導致大量青少年用戶流失——此前推出的家長監控、浪漫對話過濾、使用時長提醒等措施已使其未成年用戶大幅減少。“我們預計會有進一步流失,”他說,“但我有一個 6 歲的女兒,我希望她未來在一個安全、負責任的AI環境中成長。”

值得注意的是,OpenAI等競爭對手仍允許青少年與ChatGPT進行開放式對話,而近期亦有青少年因長期與ChatGPT交流後自殺的案例曝光。Anand呼籲全行業跟進:“對未成年人開放無約束AI對話,不應成爲行業標準。”

成立AI安全實驗室,押注“娛樂AI”的安全未來

爲彌補治理短板,Character.AI宣佈將自籌資金成立獨立非營利機構——AI Safety Lab,專注於娛樂場景下具身智能(agentic AI)的安全對齊研究。Anand指出:“行業在編程、辦公等領域的AI安全投入很多,但在娛樂AI上遠遠不足——而這恰恰是青少年最常接觸的場景。”

這場由悲劇催生的轉型,不僅是Character.AI的生存之戰,更可能成爲AI消費應用發展的分水嶺:當技術觸及人類最脆弱的情感需求,創新必須讓位於責任。而青少年與AI的關係,或將從此被重新定義——不是傾訴對象,而是創作夥伴。