在通用人工智能(AGI)競賽如火如荼之際,微軟AI首席執行官Mustafa Suleyman向整個行業敲響警鐘:我們正危險地混淆了兩個關鍵概念——“控制”與“對齊”。他在社交平臺X上直言,一個無法被有效控制的AI系統,無論其目標多麼“對齊”人類價值觀,本質上都是不可靠且危險的。
Suleyman強調,當前業界過度聚焦於讓AI“理解”人類意圖(即對齊),卻嚴重忽視了更基礎的前提——確保系統行爲始終處於人類設定的硬性邊界之內(即控制)。他比喻道:“你不能操控一個失控的系統,哪怕它聲稱‘愛你’。”在他看來,在追求超智能之前,必須優先構建可驗證、可強制執行的控制框架,這是AI安全不可逾越的底線。
這一觀點在其近期發表於微軟AI博客的《人文主義超智能》一文中得到進一步闡述。Suleyman主張,AI的發展重心應從幻想中的“完全自主通用智能”,轉向在醫療診斷、新藥研發、清潔能源突破等具體高價值領域部署受控、專注、可審計的智能系統。這類“人文主義超智能”不追求全能,而以解決人類最緊迫挑戰爲使命,並始終置於人類監督之下。
值得注意的是,Suleyman在表態中展現出罕見的行業協作姿態。他透露正與多家頭部AI公司高管保持密切溝通,並公開肯定埃隆·馬斯克“直言不諱推動安全討論”的價值,同時稱讚Sam Altman“高效且具強大推動力”。但他重申,無論技術路線如何分歧,“控制必須是所有AI研發的起點和紅線”。
在AI能力指數級增長的 2026 年,Suleyman的警告恰如一盆冷水——提醒狂奔的行業:真正的智能,不僅在於能做什麼,更在於絕不能做什麼。唯有先築牢控制之堤,對齊之舟纔不至於傾覆於未知的風險之海。
