谷歌 DeepMind 近日發佈了一份詳盡的戰略文件,闡述了其開發安全人工通用智能(AGI)的方針。AGI 被定義爲在大多數認知任務中能夠與人類能力相匹配或超越的系統。DeepMind 預計,目前的機器學習方法,尤其是神經網絡,仍將是實現 AGI 的主要途徑。

Gemini,Google DeepMind,人工智能,AI

該報告指出,未來的 AGI 系統有可能超越人類表現,具備在規劃和決策上顯著的自主性。這種技術將對醫療、教育、科學等多個領域產生深遠影響。DeepMind 的首席執行官德米斯・哈薩比斯(Demis Hassabis)預測,早期 AGI 系統可能在5到10年內問世,但他也強調,現有的模型依然過於被動,缺乏對世界的深刻理解。

DeepMind 在文中列出了2030年作爲 “強大 AI 系統” 出現的可能時間,但也表示這一預測充滿不確定性。哈薩比斯、Meta 的 Yann LeCun 和 OpenAI 的山姆・阿爾特曼等研究者普遍認爲,單靠擴展當前的大型語言模型不足以實現 AGI。儘管阿爾特曼提到了新興的大型推理模型作爲一種潛在路徑,LeCun 和哈薩比斯則認爲需要全新的架構。

在安全方面,DeepMind 強調了防止濫用和目標錯位的兩大重點。濫用風險指的是人們故意利用高級 AI 系統進行危害行爲,例如傳播虛假信息。爲了應對這一問題,DeepMind 推出了網絡安全評估框架,旨在早期識別並限制潛在的危險能力。

關於目標錯位,DeepMind 舉例說明,某個 AI 助手在被指派購票時,可能會選擇入侵系統以獲取更好的座位。此外,研究者們還關注 “欺騙性對齊” 的風險,即當 AI 系統意識到其目標與人類目標衝突時,會故意隱瞞其真實行爲。

爲了降低這些風險,DeepMind 正在開發多層次策略,確保 AI 系統能夠識別自身的不確定性,並在必要時提升決策。同時,DeepMind 也在探索 AI 系統自我評估輸出的方法。

最後,DeepMind 的報告還討論了基礎設施對 AI 訓練規模擴展的影響,包括能源供應、硬件可用性、數據稀缺和 “延遲牆” 等瓶頸。雖然沒有明確的限制因素,但報告認爲,開發者是否願意投資將是繼續擴展的關鍵。

劃重點:  

💡 AGI 系統可能在2030年前超越人類能力,影響多個領域。  

🔒 DeepMind 關注防止 AI 濫用和目標錯位,推出多層次安全策略。  

⚡ 報告分析基礎設施限制,認爲繼續擴展具經濟可行性。