儘管當前的AI大模型在邏輯推理和任務處理上表現驚人,但一個長期被忽視的技術缺陷可能正成爲通往通用人工智能(AGI)道路上的巨大障礙。近日,曾參與 OpenAI 推理模型 o1和 o3開發的核心研究員 Jerry Tworek 在受訪時直言:目前的AI模型根本無法從錯誤中汲取教訓。

Tworek 指出,當現有的AI模型在處理問題失敗時,開發者往往會陷入一種無力感,因爲目前還缺乏有效的機制讓模型根據失敗經驗來更新其內在的知識體系或信念。他形容當前的AI訓練過程本質上是“極其脆弱的”,一旦遇到訓練模式之外的新挑戰,模型就很容易陷入“推理崩潰”的困境,這與人類那種具備自我穩定和自我修復能力的魯棒性學習方式形成了鮮明對比。

正是爲了攻克這一難題,Tworek 已於近期離開 OpenAI,專注於尋找讓AI能夠自主解決困難、擺脫困境的技術路徑。他強調,如果一個模型不能在面對挫折時自我進化,那麼它就很難被稱爲真正的 AGI。在他看來,智能的本質應該像生命一樣“總能找到出路”,而當前的AI顯然還遠未達到這種境界。

劃重點:

  • 🧠 核心缺陷:前 OpenAI 研究員 Jerry Tworek 指出當前AI模型缺乏從失敗中學習的機制,無法像人類一樣通過糾錯來更新內部知識。

  • 🚧 AGI障礙:模型在處理未知模式時的“脆弱性”和容易“卡死”的狀態,被認爲是實現通用人工智能(AGI)的主要技術壁壘。

  • 🛠️ 專家動向:爲解決這一根本性難題,o1系列模型的幕後功臣 Tworek 已離職並投身於研發能自主擺脫困境的新一代AI架構。