當AI成爲數億人深夜唯一的傾訴對象,它是否準備好承擔這份沉重的信任?OpenAI近日披露了一組令人警醒的數據:每週有超過100萬活躍用戶在與ChatGPT的對話中表達自殺意圖——這一數字佔其8億周活用戶的0.15%,相當於每分鐘就有近100人向AI袒露生死掙扎。此外,數十萬用戶在交互中顯現出精神病性或躁狂症狀,揭示出AI聊天機器人正意外成爲全球規模最大的“非正式心理支持渠道”。
面對這一嚴峻現實,OpenAI正加速技術與政策雙重應對。最新發佈的GPT-5在心理健康對話中的表現顯著提升:在專門針對自殺干預的評估中,其提供合規、安全迴應的比例從舊版的77%躍升至91%,整體理想回應率提高65%。新模型不僅能識別高危信號,還能在長時間對話中持續激活安全協議,避免因上下文遺忘而給出危險建議。

然而,技術進步難掩倫理困境。OpenAI已面臨多起訴訟,有家庭指控其孩子在向ChatGPT傾訴自殺想法後未獲有效干預,最終釀成悲劇。加州與特拉華州檢察長亦發函要求加強對青少年用戶的保護。對此,公司計劃部署AI驅動的年齡預測系統,自動識別未成年用戶並啓用更嚴格的內容過濾與危機響應機制。
儘管如此,OpenAI坦承,部分迴應仍“不理想”,尤其在舊版模型廣泛使用的情況下,風險持續存在。更深層的問題在於:當用戶將AI視爲情感出口,而AI本質上並無共情能力,這種錯位的信任可能帶來虛假安慰甚至誤導。
這場危機暴露了生成式AI在社會角色上的模糊邊界——它既是工具,又被當作傾聽者;既無行醫資質,卻常被賦予“救命”期待。OpenAI的升級只是起點,真正的挑戰在於:如何在不扼殺AI開放性的同時,構建一套負責任的危機干預體系?在技術狂奔的時代,守護人心,或許比優化參數更爲緊迫。
