近日,以色列安全公司Adversa披露了人工智能巨頭Anthropic旗下開發工具Claude Code的一個嚴重安全漏洞。研究人員發現,當該AI工具一次性接收過多的子命令時,其內置的安全攔截規則會失效。

這一問題的根源在於代碼中一個硬編碼的限制。系統內部設置了一個名爲“最大安全檢查子命令數”的變量,其上限被固定爲 50 個。

Claude

簡單的溢出攻擊即可繞過防禦

在正常情況下,Claude Code會根據設置自動攔截如網絡請求等高風險操作。然而,一旦指令鏈條超過 50 個,系統就會從“自動拒絕”降級爲“詢問用戶”。

黑客可以利用這一特性,通過在惡意代碼庫中隱藏超長指令鏈,誘導AI執行危險命令。雖然系統會彈出提示,但開發者在長時間工作中往往會習慣性地點擊允許,從而導致系統失守。

安全專家建議儘快更新補丁

安全專家指出,這種“計數器失效”的漏洞在自動化集成(CI/CD)環境下風險極大。因爲在非交互模式下,程序可能會默認跳過權限檢查,直接給予AI執行權限。

諷刺的是,Anthropic內部其實已經開發了一套更先進的解析器來解決此問題。專家建議官方應儘快將該功能推向公衆版本,並將安全邏輯從“詢問”徹底改爲“拒絕”。