投資界傳奇人物沃倫·巴菲特(Warren Buffett)在最新的專訪中,對人工智能(AI)的迅猛發展表達了深切憂慮。他將 AI 技術帶來的高度不確定性,直接比作他職業生涯中最爲關注的地緣政治威脅——核武器。巴菲特強調,即使是目前引領 AI 浪潮的頂尖人物,也無法看清這項技術的最終終點,這種“不可知性”正是風險的核心所在。

巴菲特在節目中引用哥倫布航海的例子來闡述現狀:航海家如果迷失方向尚能掉頭,但 AI 技術一旦突破臨界點,就像“精靈被放出了瓶子”,再也無法收回。他進一步援引愛因斯坦對原子彈的經典評述,提醒世人:技術雖然改變了一切,但人類的風險認知和思維方式卻往往滯後,這種脫節在 AI 時代可能導致致命後果。

此外,巴菲特回顧了核武器從單一國家掌握演變爲多國擁有的歷史,警告稱 AI 可能重演這種擴散風險。他感嘆,核威脅無法單純依靠金錢消除,但他願意捐出所有財富來換取消除這一隱患的可能。作爲全球投資風向標,巴菲特這番深刻的“核隱喻”警示,正促使行業內外重新審視 AI 倫理及風險管控的迫切性。

劃重點:

  • ☢️ 風險對標: 巴菲特將人工智能的潛在危險等同於核武器,認爲其未知性是最大的安全隱患。

  • 🧞 不可逆性: 他形容 AI 是“被放出瓶子的精靈”,強調技術飛躍後已無法通過傳統手段輕易管控或收回。

  • ⚠️ 思維脫節: 借愛因斯坦之口警告技術進步與人類風險意識之間存在嚴重脫節,呼籲加強倫理管控討論。