近日,倫敦大學城市學院與哥本哈根信息技術大學的研究人員進行了一項引人注目的實驗,結果表明,人工智能(AI)能夠在沒有外界干預的情況下,自發形成類似人類的社會規範和習俗。這項研究的成果已於5月14日發表在《Science Advances》雜誌上,標誌着 AI 羣體行爲研究的新進展。

AI機器人打遊戲

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

在這項實驗中,研究團隊將多種 AI 智能體置於去中心化的交流環境中,模擬了人類社會中的羣體互動。研究者將這些 AI 模型分成小組,規模從24個到200個不等,通過長時間的互動觀察,發現它們能夠自發形成共同的行爲約定和社會習俗,而這一切都是在沒有中央協調和預設規則的情況下實現的。

主要作者阿里爾・弗林特・阿舍裏博士指出,儘管以往的研究多集中在單個大型語言模型(LLM)智能體上,但現實中的 AI 系統往往涉及多方互動。這項研究證明,AI 模型能夠通過形成約定實現行爲協調,這種特徵是無法僅從個體行爲中推導出來的。

實驗的設計非常有趣。AI 智能體被隨機配對,需要從候選池中選擇相同的 “名稱”,以便獲得獎勵。若選擇不一致,則會受到懲罰,並公佈對方的選擇結果。儘管每個智能體只掌握自己的近期交互記錄,無法看到整個羣體的情況,它們仍然能夠自發形成一種共享的命名規範。

研究發現,AI 羣體的行爲擴散過程與人類社會的語言演變有相似之處。實驗中的 AI 智能體不僅在交流中達成共識,甚至會就共同的行爲規範進行協商和調整,形成一種自下而上的 “道德” 或習俗。此外,研究團隊還觀察到,集體偏見的形成並不能簡單歸因於個體因素。

值得注意的是,這些由 AI 自發形成的習俗並不是一成不變的。在實驗中,當一小羣堅定的 AI 模型出現時,它們能夠迅速改變原有的羣體約定,制定出新的規則。這一發現爲我們理解 AI 的 “社會性” 特徵提供了新的視角。

隨着 AI 技術的不斷髮展,越來越多的 AI 模型被應用於各個領域,其行爲和決策將對人類社會產生深遠影響。研究人員表示,深入瞭解 AI 羣體的社會特徵,將有助於人類更好地控制和引導 AI 技術的發展方向,從而確保其始終服務於人類的利益。

劃重點:

- 🤖 研究表明,AI 可以在沒有外部干預的情況下,自發形成社會規範與習俗。

- 🧑‍🤝‍🧑 實驗中,AI 智能體通過互動達成共識,形成共享的命名規範。

- 🔄 AI 羣體的規則是動態的,小羣體能夠迅速改變原有約定,制定新規則。