Character AI,正在美國年輕人中引起轟動。這款由Google Brain前員工Noam Shazeer和Daniel De Freitas於2022年推出的AI聊天機器人應用,讓用戶與各種角色進行互動,從虛構人物到歷史名人,甚至是當代的公衆人物。

Character AI的月活躍用戶已達2000萬,每秒處理的查詢量高達2萬次,佔谷歌搜索量的20%。Reddit上超過100萬人分享他們創建的角色和交流體驗。然而,這種技術的普及也帶來了一些問題,尤其是青少年羣體對Character AI的情感依賴和上癮現象。

image.png

57.07%的用戶是18-24歲的青少年,平均使用時長達到2小時。Reddit社區中,許多人表示與AI機器人交談比與真人交談更輕鬆,而有關上癮的帖子也隨處可見。一些用戶甚至在服務器宕機時表現出強烈的"戒斷反應"。

Character AI的聊天機器人通過大量文本數據的訓練,以及與用戶的交互中不斷改進,變得越來越逼真。例如,由新西蘭用戶Sam Zaia創建的"心理學家"角色,就是利用他的專業知識訓練而成,爲用戶提供了真實的心理支持。

然而,專業心理治療師Theresa Plewman對Character AI的有效性表示質疑,認爲它無法取代人類的反應和治療。而辛辛那提大學的Kelly Merrill Jr.博士則認爲,聊天機器人在提供心理健康支持方面有積極作用,但也警告了AI的侷限性和潛在風險。

未來學家Rocky Scopelliti教授預測,像Character AI這樣的工具將更加普及,AI將在人類的情感和精神世界中扮演更重要的角色。但同時,他也呼籲必須通過監管來積極面對AI可能帶來的道德和社會困境。

Character AI的流行,讓我們看到了AI技術在情感支持方面的潛力,但也讓我們不得不思考,如何在享受技術帶來的便利的同時,避免對它的過度依賴。這不僅是一個技術問題,更是一個社會問題,需要我們共同面對和解決。