在 AI 領域,一位極具影響力的人物 —— 前 OpenAI 聯合創始人、現任 Safe Superintelligence CEO 的伊利亞・蘇茨克維(Ilya Sutskever)最近在一場長達三萬字的訪談中發出了引人關注的聲音。他指出,當前主流的 AI 發展路線已經遇到瓶頸,標誌着我們從一個擴展的時代回到了深入研究的階段。
蘇茨克維認爲,從2012年到2020年,AI 行業經歷了快速的研究階段,隨後進入了一個規模化的擴展階段。現在,隨着算力的增長,模型的表現並未顯著提升,擴展與算力浪費的界限變得模糊。這一現象讓人不得不思考,當前的 AI 研究是否應重新聚焦於基礎理論和方法的探索。
他進一步探討了大模型的泛化能力問題,指出這些模型在特定評測中表現良好,但在實際應用中卻常常犯錯。這種現象可能源於強化學習訓練所選擇的數據過於狹窄,導致模型在應對複雜現實任務時的表現不盡如人意。蘇茨克維用一個比喻說明了這一點:現有的 AI 模型就像一個專注於編程競賽的學生,雖然在競賽中表現優異,卻未必能在實際工作中游刃有餘。
蘇茨克維還強調了情緒在 AI 決策中的重要性,他提出,人類的價值觀和決策能力在某種程度上受到情緒的調節,這種調節可能是進化過程中形成的。他表示,未來的 AI 系統需要考慮情感因素,才能更好地理解和適應複雜的世界。
不僅僅是蘇茨克維,許多 AI 領域的先驅也對目前的 AI 發展方向提出了質疑。例如,圖靈獎得主楊立昆(Yann LeCun)指出,當前的語言模型技術可能是 “死衚衕”,無法實現真正的智能。他認爲,“世界模型” 將是未來 AI 的主流,通過模擬和理解世界來推動 AI 的發展。
總之,AI 行業正面臨重大的轉折點,單純依賴算力和規模的擴展已不再足夠,必須重新審視和探索新的研究範式,以便爲實現通用人工智能(AGI)鋪平道路。
