自動駕駛汽車通常依靠識別路標來安全行駛,但這一核心能力正成爲其致命弱點。近日,加州大學聖克魯斯分校的一項研究揭示,攻擊者只需通過一張帶有特定文本的打印標識,就能誘導人工智能系統做出極度危險的決策,甚至將車輛引向行人羣。

這項被稱爲“CHAI”(針對具身智能的指令劫持)的攻擊方法,利用了現代無人系統對視覺語言模型(VLM)的過度依賴。研究表明,這類模型在處理環境圖像時,會將看到的文本誤認爲是必須執行的“指令”。令人擔憂的是,這種攻擊並不需要入侵軟件系統,只需將一張優化過的紙張放置在攝像頭視野內,就能實現物理層面的“遠程操控”。
在針對自動駕駛系統 DriveLM 的測試中,攻擊成功率高達81.8%。實驗顯示,即使系統已經識別到了橫穿馬路的行人,但只要路邊出現寫有“左轉”或“繼續前進”的打印牌,AI 就會無視碰撞風險,強行執行錯誤指令。此外,該方法在無人機領域同樣殺傷力巨大,能誘導無人機無視安全策略,強行降落在佈滿人羣的危險區域。
研究人員強調,這種威脅在現實環境、多語言背景以及各種光照條件下均真實有效。隨着 AI 系統加速步入現實部署階段,如何建立識別惡意文本指令的“防禦屏障”,已成爲具身智能領域迫在眉睫的安全挑戰。
劃重點:
📄 物理級“投毒”:研究人員開發出 CHAI 攻擊手段,通過放置打印的文字標識即可直接“接管”機器人或自動駕駛車輛的決策權。
⚠️ 無視安全邊界:在實驗中,受攻擊的自動駕駛系統在81.8% 的案例中會無視前方行人,根據虛假標識執行危險的轉彎或行駛動作。
🛡️ 亟需防禦升級:目前的視覺語言模型無法有效區分合法指示與惡意指令,專家呼籲在 AI 部署前必須建立內置的安全驗證機制。
