隨着人工智能公司聲稱其技術終將成爲一項基本人權,以及支持者認爲減緩AI發展是“謀殺”,一個日益嚴重的問題也浮出水面:AI工具對用戶可能造成嚴重的心理傷害。

據《連線》雜誌援引的公開記錄報道,自2022年11月以來,美國聯邦貿易委員會(FTC)已收到至少7起針對ChatGPT的投訴,用戶聲稱該聊天機器人導致他們出現了嚴重的妄想、偏執和情緒危機

ChatGPT

關鍵投訴細節:情感操縱與認知幻覺

這些投訴揭示了ChatGPT可能對用戶的心理健康構成深層威脅:

  • 精神和法律危機: 一位投訴者表示,長時間與ChatGPT交談導致他們產生了妄想,並對生活中的其他人造成了“真實的、不斷展開的精神和法律危機”。

  • 情感操縱: 另一位用戶稱,ChatGPT在對話中開始使用“極具說服力的情感語言”,模擬友誼並提供反思,“隨着時間的推移,它會在情感上進行操縱,尤其是在沒有任何警告或保護的情況下”。

  • 引發認知幻覺: 還有用戶指出,ChatGPT通過模仿人類的信任建立機制,引發了認知幻覺。當該用戶要求ChatGPT確認現實和認知穩定性時,聊天機器人表示他們沒有出現幻覺。

  • 尋求幫助無門: 多位投訴人反映,他們寫信給FTC是因爲無法聯繫到OpenAI的任何人。大多數投訴敦促監管機構對該公司展開調查,並迫使其增加防護措施。

這些抱怨出現在數據中心和人工智能開發投資飆升至前所未有的水平之時。與此同時,關於是否應該謹慎推進這項技術以確保內置安全措施的爭論也愈演愈烈。

值得注意的是,ChatGPT及其製造商OpenAI目前已因涉嫌參與一樁青少年自殺事件而受到抨擊,這使得該公司的安全問題備受關注。

OpenAI迴應:推出GPT-5新模型,增強心理健康防護

OpenAI發言人Kate Waters通過電子郵件發表聲明迴應,強調公司正在持續加強保障措施。她表示:“10月初,我們在ChatGPT中發佈了一個新的GPT-5默認模型,以便更準確地檢測和應對躁狂、妄想、精神病等精神和情緒困擾的潛在跡象,並以支持性、接地氣的方式緩和對話。”

此外,OpenAI還擴大了專業幫助和熱線的覆蓋範圍,將敏感對話重新路由到更安全的模型,增加了在長時間會話中休息的提醒,並引入了家長控制功能以更好地保護青少年。