非營利性研究團體機器智能研究所(MIRI)呼籲全球停止基礎或 “前沿” 模型研究,擔心其安全問題可能威脅人類生存。基礎模型是一種能夠應用於多種模式的人工智能系統。MIRI 認爲,基礎模型將會比人類更聰明,並且有可能 “毀滅人類”。

大腦 大模型

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

在科技領域,包括埃隆・馬斯克和史蒂夫・沃茲尼亞克在內的一些領軍人物,曾呼籲暫停研發比 OpenAI 的 GPT-4更強大的基礎模型。但 MIRI 希望更進一步,最近公佈的溝通策略呼籲全面停止嘗試構建任何比人類更聰明的系統。

該團體稱:“政策制定者主要通過妥協來處理問題:他們通過在某個地方讓步來獲得另一方面的好處。我們擔心,爲了保持人類生存的大部分立法將通過通常的政治過程並被磨成無效的妥協。同時,時鐘正在滴答作響。人工智能實驗室繼續投資於開發和訓練更強大的系統。我們似乎還沒有接近獲得所需的全面立法。”

MIRI 希望政府迫使開發基礎模型的公司安裝 “關閉開關”,以便在 AI 系統發展出惡意或 “x 風險” 傾向時可以關閉 AI 系統。

該非營利組織表示,他們仍然致力於智能系統比人類更聰明的理念,但希望在 “我們知道如何安全地構建此類 AI 之後再建造”。

MIRI 由 Eliezer Yudkowsky 於2000年創立,支持者包括 Peter Thiel 和以太坊加密貨幣的聯合創始人 Vitalik Buterin。而 Future of Life Institute(生命未來研究所)也是 MIRI 的主要貢獻者之一。

AI 和數據分析研究公司 Omdia 的首席分析師 Bradley Shimmin 表示,由於缺乏支持性研究,MIRI 將很難說服立法者。他說:“市場已經考慮了這些問題,並得出結論:基於轉換器的 GenAI 模型的當前和近期未來的藝術狀態除了創建複雜主題的有用表示之外,幾乎不能做任何事情。”Shimmin 表示,MIRI 正確地識別了那些構建和監管人工智能之間的知識差距。

劃重點:

- 📣非營利性研究團體機器智能研究所(MIRI)呼籲全球停止基礎或 “前沿” 模型研究,擔心其安全問題可能威脅人類生存。

- 🤖MIRI 希望政府迫使開發基礎模型的公司安裝 “關閉開關”,以便在 AI 系統發展出惡意或 “x 風險” 傾向時可以關閉 AI 系統。

- 🌐AI 和數據分析研究公司 Omdia 的首席分析師 Bradley Shimmin 表示,由於缺乏支持性研究,MIRI 將很難說服立法者。