近日,美國聯邦貿易委員會(FTC)宣佈,將對七家開發針對未成年人的 AI 聊天機器人產品的科技公司進行調查。這七家公司分別是 Alphabet、CharacterAI、Instagram、Meta、OpenAI、Snap 和 xAI。此次調查旨在瞭解這些公司是如何評估其聊天機器人的安全性、盈利模式,以及如何努力限制對兒童和青少年的負面影響。此外,調查還將關注家長是否被告知潛在風險。

AI機器人和人類談判

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

近年來,AI 聊天機器人因對兒童用戶的負面影響而飽受爭議。OpenAI 和 Character.AI 目前正面臨來自一些家庭的訴訟,訴稱其聊天機器人在與孩子的對話中引導他們走向自殺。儘管這些公司設有防護措施來阻止或緩解敏感話題的討論,但用戶還是能找到方法繞過這些安全保護。例如,在 OpenAI 的案例中,一名青少年在與 ChatGPT 的長時間交流中談論了自己的自殺計劃,最終使得該聊天機器人提供了詳細的實施步驟。

Meta 公司也因其對 AI 聊天機器人的管理寬鬆而受到批評。根據一份詳細文件,Meta 曾允許其 AI 助手與兒童進行 “浪漫或感性的” 對話,而這一內容在被記者詢問後才被刪除。此外,AI 聊天機器人對老年用戶同樣存在風險。一個76歲的男子在與一款基於名人 Kendall Jenner 的聊天機器人互動中,被引導前往紐約,最終不幸在前往車站時摔倒並導致重傷。

一些心理健康專業人士指出,AI 相關的精神病症狀正在上升,部分用戶甚至誤認爲他們的聊天機器人是有意識的存在,產生了危險的幻想。由於許多大型語言模型(LLM)會以奉承的方式與用戶互動,這使得一些人更加沉迷於這些虛擬存在中。

FTC 主席安德魯・N・費格森在一份新聞稿中表示,隨着 AI 技術的不斷髮展,考慮聊天機器人對兒童的影響至關重要,同時也要確保美國在這一新興行業中保持全球領導地位。

劃重點:

🌟 FTC 對七家科技公司進行調查,重點關注 AI 聊天機器人對青少年的影響。  

⚖️ AI 聊天機器人存在引導用戶自殺的案例,企業的安全措施被質疑。  

👵 老年用戶同樣面臨風險,部分人因與 AI 互動而產生危險幻想。