社交媒體巨頭 Meta 旗下的開放人工智能模型 Llama 系列在 AI 社區享有盛譽,尤其是前幾代產品 Llama1至3備受好評。然而,隨着2025年4月 Llama4的推出,Meta 卻遭遇了重大的信任危機。
當時,Meta 聲稱 Llama4在基準測試中的表現非常優秀,但隨着模型的發佈,衆多開發者迅速進行了測試,結果顯示 Llama4的實際性能遠低於 Meta 的宣傳。外界開始懷疑,Meta 可能在基準測試中採取了不當手段。雖然 Meta 一度否認了這一指控,但隨後的發展表明,Llama 系列似乎進入了停滯期,Meta 也逐漸將重心轉向閉源的商業模型。

在最近接受《金融時報》採訪時,即將離任的 Meta 首席人工智能科學家 Yann LeCun 終於承認,Llama4在發佈前確實經過了基準測試結果的篡改。他透露,團隊爲了提升分數,針對不同的測試項目使用了不同的模型,旨在取得更好的結果。這一做法的後果卻是慘痛的:Llama4被認爲是一個失敗的產品,Meta 因被指控操縱測試結果而遭受重創。
這一事件讓 Meta 創始人馬克・扎克伯格感到憤怒,他對參與發佈的團隊失去了信心,直接將整個 GenAI 團隊邊緣化。目前,許多團隊成員已經離開,像在 Meta 工作了十年的 Yann LeCun 也宣佈即將離職。這一系列變動不僅暴露了 Meta 內部的困境,也讓人對其未來的 AI 發展充滿疑慮。
Meta 的 AI 領域再度掀起波瀾,行業內對此事件的反響熱烈。Llama4的發佈將成爲一面鏡子,映照出企業在追求技術進步與保持誠信之間的艱難平衡。
