在智能駕駛行業,2025年被視爲 “VLA 上車元年”,這標誌着一種全新的技術範式正在嶄露頭角。VLA,即視覺語言動作模型(Vision-Language-Action Model),最初由 DeepMind 於2023年提出,旨在提升機器人對環境的理解和反應能力。近年來,這一技術在自動駕駛領域受到了極大的關注。
與傳統的視覺語言模型(VLM)相比,VLA 的優勢在於其不僅可以解析圖像和文本信息,還能通過 “類人” 思維進行決策。

這使得智能駕駛系統能夠更準確地推理複雜的路況,比如在施工現場或交通指揮中作出適當反應。根據元戎啓行的研究,VLA 可以預測未來幾十秒的路況變化,而 VLM 則只能推理出短短7秒的情況。這種更強的推理能力讓 VLA 在處理實時路況時更具優勢,推動了智能駕駛技術的迅猛發展。
當前,行業中的主要玩家,如理想汽車和元戎啓行,紛紛開始在其車型中應用這一技術,標誌着智能駕駛正進入一個全新的競速階段。尤其是元戎啓行,與多家頭部車企達成了合作協議,計劃在2025年推出搭載 VLA 模型的智能汽車。這一舉措不僅增強了其市場競爭力,也爲其未來的發展奠定了堅實的基礎。
在競爭日益激烈的市場中,企業是否能夠打造出 “爆款” 車型,成爲評估其成功與否的重要指標。爆款車型的熱銷不僅能爲企業提供寶貴的數據支持,還能加速智能駕駛技術的迭代升級。2024年,理想汽車和小米汽車憑藉其暢銷車型,迅速積累了市場份額和用戶信任,成爲行業的標杆。
智能駕駛市場正在經歷一場技術革命,VLA 的出現爲行業帶來了新的可能性。隨着更多車型的推出和技術的不斷成熟,未來的智能駕駛將更加智能化,帶給用戶更優質的駕駛體驗。
