近日,卡內基梅隆大學的研究人員提出了一項名爲 “層次化知識智能體架構(Layered Orchestration for Knowledgeful Agents)”(LOKA)的新協議,可以加入其他擬議的標準,例如 Google 的 Agent2Agent (A2A) 和 Anthropic 的模型上下文協議 (MCP),旨在爲自主 AI 智能體的身份、責任和倫理提供規範。隨着 AI 智能體的普及,對其互動進行標準化管理的需求愈加迫切。
LOKA 協議的提出背景是,當前的 AI 智能體通常在各自獨立的系統中運行,缺乏統一的溝通協議以及倫理決策框架,這導致了互操作性差、倫理不一致和問責缺失等一系列問題。因此,LOKA 作爲一種開源協議,致力於賦予智能體唯一的身份標識,使其能夠驗證身份、交流具有語義豐富和倫理註解的信息,並在決策過程中實現問責與倫理治理。
LOKA 的設計分爲多個層級。首先是身份層,這一層爲智能體提供一個去中心化的標識符,確保其身份的唯一性和可驗證性。接下來是溝通層,智能體能夠在此層面上告知其他智能體其意圖及任務。然後是倫理層,它構建了一個靈活而強大的倫理決策框架,允許智能體根據所處的上下文調整行爲標準。同時,安全層使用了量子抗攻擊的加密技術,進一步增強了協議的安全性。
與現有的代理協議相比,LOKA 的獨特之處在於它明確了智能體如何與其他智能體溝通和在不同系統中自主運作的關鍵信息。對於企業而言,LOKA 能夠保障智能體的安全,並提供可追溯的決策過程,幫助企業理解智能體的決策背景,避免潛在的錯誤。
該項目的研究者 Rajesh Ranjan 表示,LOKA 的目的是爲智能體建立一個信任和責任的生態系統。雖然 LOKA 協議獨立於其他協議,但他們已收到了來自其他研究機構和學術界的積極反饋,顯示出對 LOKA 研究項目的廣泛關注和認可。
劃重點:
🔍 LOKA 協議旨在爲自主 AI 智能體提供身份、責任與倫理的規範,促進其互操作性。
💬 LOKA 的設計包括身份層、溝通層、倫理層和安全層,確保智能體在不同環境中的可靠性和安全性。
🚀 LOKA 項目受到其他研究機構的積極反饋,顯示出其在 AI 領域的重要性和潛在影響。