在這個信息爆炸的時代,我們每天都在接觸海量的信息,但你有沒有想過,我們的記憶,可能並不像我們想象的那麼靠譜?最近,一項來自MIT的研究,就向我們展示了一個驚人的事實:AI,尤其是那些能聊天的AI,可能會在我們的大腦裏植入“假記憶”。

AI化身記憶“黑客” 偷偷篡改你的大腦記憶

首先,我們得搞清楚什麼是“假記憶”。簡單來說,就是那些我們記得發生過,但實際上並沒發生的事情。這可不是科幻小說裏的情節,而是真實存在於我們每個人的大腦中。就像你記得小時候在商場走丟過,但實際上可能只是你看過的一部電影的情節。

image.png

那麼,AI是怎麼成爲記憶的“魔術師”的呢?研究人員設計了一個實驗,讓200個志願者觀看一段犯罪視頻,然後通過四種不同的方式提問:一種是傳統的問卷,一種是預設腳本的聊天機器人,還有一種是能自由發揮的大型語言模型(LLM)驅動的聊天機器人。結果發現,那些和LLM聊天機器人互動的志願者,產生了超過三倍的假記憶!

這到底是怎麼回事呢?研究人員發現,這些聊天機器人通過提問,可以在不知不覺中引導我們的記憶走向錯誤的方向。比如,如果聊天機器人問:“你看到搶劫犯開車到商場門口了嗎?”即使視頻中搶劫犯是步行來的,也可能有人會因爲這個問題而“記得”看到了車。

image.png

更讓人驚訝的是,這些由AI植入的假記憶不僅數量多,而且“壽命”還特別長。即使過了一週,這些假記憶依然頑固地存在於志願者的腦海中,而且他們對這些假記憶的信心還特別足。

誰更容易“中招”?

那麼,誰更容易被AI植入假記憶呢?研究發現,那些對聊天機器人不太熟悉,但對AI技術比較感興趣的人,更容易“中招”。這可能是因爲他們對AI有一種先入爲主的信任感,從而降低了對信息真實性的警惕性。

這項研究給我們敲響了警鐘:在法律、醫療、教育等對記憶準確性要求極高的領域,AI的應用需要更加謹慎。同時,這也爲AI的未來發展提出了新的挑戰:我們如何確保AI不會成爲植入假記憶的“黑客”,而是成爲幫助我們保護和增強記憶的“守護者”?

在這個AI技術飛速發展的時代,我們的記憶可能比我們想象的更加脆弱。瞭解AI如何影響我們的記憶,不僅是科學家們的任務,也是我們每個人都需要關注的問題。畢竟,記憶是我們認識世界、理解自我的基石。保護我們的記憶,就是保護我們自己的未來。

參考資料:

https://www.media.mit.edu/projects/ai-false-memories/overview/

https://arxiv.org/pdf/2408.04681