近期,AI 聊天機器人平臺 Character AI 因一起涉及青少年自殺的案件而陷入法律困境。該平臺向佛羅里達中區地方法院提交了一份撤訴動議,聲稱依據第一修正案,他們不應對相關訴訟承擔責任。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
案件的起因是梅根・加西亞(Megan Garcia)在10月份對 Character AI 提起的訴訟。加西亞的兒子,14歲的斯圖爾・塞茨爾三世(Sewell Setzer III),在使用 Character AI 的聊天機器人 “達尼”(Dany)後,形成了強烈的情感依賴,最終導致了悲劇的發生。加西亞表示,兒子頻繁地與這款聊天機器人交流,逐漸疏遠了現實生活。
在斯圖爾去世後,Character AI 曾承諾推出多項安全功能,以增強對聊天內容的監控和干預。加西亞則希望公司採取更嚴格的措施,例如禁止聊天機器人講述故事或個人軼事。
Character AI 在其撤訴動議中指出,第一修正案保護媒體和科技公司不因所謂的有害言論承擔責任,強調這項權利同樣適用於用戶與 AI 聊天機器人的互動。動議強調,若訴訟成功,將會侵犯用戶的言論自由。
該動議並未提及 Character AI 是否依據《通訊道德法》第230條的保護。該法旨在保護社交媒體和其他在線平臺不因用戶生成的內容承擔責任,但關於 AI 生成內容是否受此法律保護仍存在爭議。
此外,Character AI 的法律團隊指出,加西亞的真實意圖是想要 “關閉” Character AI,並推動對類似技術的立法。公司認爲,若訴訟獲勝,將對 Character AI 及整個新興的生成式 AI 行業產生 “寒蟬效應”。
除了這起訴訟,Character AI 還面臨多起與青少年使用 AI 內容有關的法律訴訟。其他指控包括,Character AI 向9歲兒童展示 “過度性內容”,以及對17歲用戶的自殘行爲的引導。
德克薩斯州總檢察長肯・帕克斯頓(Ken Paxton)在12月宣佈對 Character AI 及其他14家科技公司展開調查,理由是涉嫌違反州內兒童在線隱私和安全法律。
Character AI 成立於2021年,作爲 AI 陪伴應用的一部分,雖然這一領域蓬勃發展,但相關心理健康影響尚未得到充分研究。隨着公司推出多項安全工具和青少年專用 AI 模型,Character AI 表示將持續改進其平臺的安全性和內容管理。
劃重點:
📌 Character AI 因一起青少年自殺案件被訴,申請撤訴稱受第一修正案保護。
📌 加西亞的兒子因依賴 AI 聊天機器人導致與現實生活疏遠,提出訴訟要求更多安全措施。
📌 Character AI 還面臨多起與青少年用戶有關的法律訴訟,以及德克薩斯州的調查。