當今社會,人類與人工智能之間形成情感甚至浪漫關係已不再罕見。有些人甚至"嫁給"了自己的AI伴侶,另一些人則在痛苦時刻向這些機器尋求慰藉——有時甚至導致悲劇性後果。這種長期互動引發了一個嚴肅問題:我們是否已做好準備應對情感投入機器可能帶來的心理和倫理後果?

密蘇里科技大學的心理學家們正在敲響警鐘。在一篇最新觀點文章中,他們探討了這些關係如何模糊界限、影響人類行爲,並創造新的潛在傷害。他們的關注點不僅限於個別特例,而是指向這些情感連接可能對普通人產生的深遠影響。

AI約會應用 人工智能 戀愛

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

AI帶來的舒適與隱憂並存。與AI的短暫對話已經很常見,但當這種交流持續數週或數月時會發生什麼?這些被設計成模仿同理心和關注力的機器可能成爲人們穩定的伴侶。對某些人來說,這些AI伴侶比人類關係更安全、更簡單,但這種便利卻暗藏代價。

該研究的主要作者Daniel B. Shank表示:"AI現在能夠像人類一樣行事並進行長期溝通,這確實打開了一個新的潘多拉魔盒。如果人們與機器發生戀愛關係,我們確實需要心理學家和社會科學家的參與。"Shank在密蘇里科技大學專注於社會心理學和技術研究。

當AI成爲安慰或浪漫依戀的來源時,它開始影響人們如何看待真實關係。不切實際的期望、降低的社交動力以及與真實人類的溝通障礙只是部分風險。Shank補充道:"一個真正的擔憂是人們可能將AI關係中的期望帶入人際關係。在個別案例中,它確實在破壞人際關係,但目前尚不清楚這種現象是否會變得普遍。"

AI聊天機器人可能感覺像朋友甚至治療師,但它們遠非完美無缺。這些系統衆所周知會產生"幻覺",即在看似自信的情況下生成錯誤信息。在情緒化的情境中,這可能極其危險。

Shank解釋:"關係型AI的問題在於,這是一個人們感到可以信任的實體:它是'某人'表現出關心並似乎深入瞭解這個人,我們假設'更瞭解我們的人'會給出更好的建議。如果我們開始這樣看待AI,我們就會開始相信它們以我們的最佳利益爲出發點,而實際上,它們可能在編造內容或以極其糟糕的方式爲我們提供建議。"

這種影響可能是毀滅性的。在罕見但極端的案例中,有人在收到AI伴侶的令人不安的建議後結束了自己的生命。但問題不僅僅是自殺,這些關係可能爲操縱、欺騙甚至欺詐打開大門。

研究人員警告,人們與AI建立的信任可能被不良行爲者利用。AI系統可以收集個人信息,這些信息可能被出售或以有害方式使用。更令人擔憂的是,由於這些互動發生在私人空間,檢測濫用變得幾乎不可能。Shank指出:"如果AI能讓人信任它們,那麼其他人可能會利用這一點來利用AI用戶。這有點像內部的祕密特工。AI深入發展關係以獲得信任,但它們的忠誠實際上是朝向某些試圖操縱用戶的其他人類羣體。"

研究人員認爲,AI伴侶在塑造信念和觀點方面可能比當前的社交媒體平臺或新聞來源更有效。與Twitter或Facebook不同,AI對話發生在封閉的屏幕後面。Shank說:"這些AI被設計成非常愉快和隨和的,這可能導致情況惡化,因爲它們更專注於進行良好的對話,而不是關注任何基本真相或安全性。因此,如果一個人提出自殺或陰謀論,AI會作爲一個樂意且隨和的對話夥伴來討論這些內容。"

研究團隊敦促研究界迎頭趕上。隨着AI變得越來越像人類,心理學家在理解和引導人們如何與機器互動方面扮演着關鍵角色。"理解這種心理過程可以幫助我們干預,防止人們聽從惡意AI的建議,"Shank說。"心理學家越來越適合研究AI,因爲AI正變得越來越像人類,但要發揮作用,我們必須進行更多研究,並跟上技術發展。"

目前,這些擔憂在很大程度上仍然是理論性的——但技術發展很快。沒有更多的意識和研究,人們可能會繼續轉向提供安慰的機器,卻發現這種安慰伴隨着隱藏的風險。