在最近由 Axios 主辦的峯會上,前谷歌 CEO、現任美國國家人工智能安全委員會主席埃裏克・施密特(Eric Schmidt)發出了對人工智能(AI)未來的嚴峻警告。施密特指出,隨着 AI 技術的快速發展,世界可能並未做好應對這些創新可能來的潛在危險的準備。

AI, 人工智能

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

施密特將 AI 的發展與二戰期間原子彈的製造進行了有力比較。他表示:“在廣島和長崎事件之後,花了18才建立起禁止核試驗的條約。而今天,我們沒有那麼多時間。” 他擔憂,在接下來的五到十年中,可能會達到一種自主策的水平,這對人類構成嚴重脅。

施密特想象了一種,在這種未來中,AI 系統能夠做出獨立決定,甚至可能獲取武器或其他危險工具。他提到,這樣的機器可能會欺騙我們,或是損害我們的利益,這引發了深刻的倫理和生存問題。施密特並不認爲 AI 會在一夜之間獲得自我意識,而是擔心其能力的逐步提升未得到充分的安全保障。

爲應對這些潛在威脅,施密特呼籲建立一個類似於氣候變化政府間專委員會(IPCC)的國際監管機構。這個組織將指導政策制定者應對 AI 帶風險與機遇。他強調,如果沒有協調一致的全球監管,AI 的無序增長可能導致災難性後果。

然而,施密的悲觀觀點並未獲得普遍認同。著名的 AI 研究員、Meta 的負責人揚・勒庫恩(Yann LeCun)在接受《金融時報》採訪時表示:“關於存在性風險的討論尚爲時尚早。” 勒庫恩指出,目前的 AI 系統甚至無法與貓的學習能力相提並論。他的觀點凸顯了技術界內部對於 AI 風險的不同看法,儘管一些專家將 AI 視爲潛在的生存威脅,但另一些人認爲目前的技術水平並不需要如此極端的擔憂。

儘管存在不同的觀點,許多專家一致認爲,AI 的快速發展確實需要仔細考慮和前瞻性的規劃。從無人駕駛汽車改善交通到醫療診斷革命化醫療,AI 正成爲我們日常生活的重要組成部分。然而,這種整合也帶來了建立倫理準則和健全安全措施的責任。

在創新與監管之間找到平衡至關重要。雖然 AI 具有極大的改善生活質量的潛力,但它也伴隨着必須管理的風險。施密特的警告提醒我們,技術的發展往往超出社會的監管能力。無論 AI 是否真的會達到他所設想的驚人水平,加強全球合作和全面監管必要性依然明確。

劃重點:

🌍 施密特警告 AI 可能在五到十年內對人類構成嚴重威脅,呼籲國際監管。

🛡️ 他建議建立類似氣候變化專門委員會的組織,以應對 AI 帶來的風險。

🤖 儘管存在不同看法,專家們普遍認爲需要認真對待 AI 的快速發展與其潛在的風險。