隨着“Vibe Coding”(即通過自然語言指令快速生成大量代碼)的興起,程序員的開發速度雖大幅提升,但也帶來了邏輯漏洞和安全隱患。爲此,Anthropic 正式推出了一款名爲 Code Review 的 AI 代碼審計工具,旨在爲企業提供自動化的“專家級”反饋。

該產品已作爲 Claude Code 的一部分,率先面向 Claude for Teams 和 Enterprise 用戶開放。Anthropic 產品負責人 Cat Wu 指出,AI 工具導致拉取請求(Pull Requests)數量激增,人工審覈已成爲軟件交付的瓶頸。Code Review 的出現正是爲了疏通這一堵點。
Code Review 的核心特性包括:
深度邏輯檢測:與單純的風格檢查不同,該工具專注於識別代碼中的邏輯錯誤。Wu 表示,開發者通常對不可操作的瑣碎反饋感到厭煩,因此 Code Review 將優先級放在了最高級別的功能性修復上。
分級嚴重程度標識:系統採用顏色編碼對風險進行分級——紅色代表極高嚴重性,黃色代表潛在問題,紫色則標識與歷史 Bug 或存量代碼相關的風險。
多智能體協作架構:其內部由多個並行工作的 AI Agent 組成,每個 Agent 從不同維度(如安全性、邏輯完整性等)分析代碼,最後由一個聚合 Agent 彙總並剔除重複項,確保最終建議的高質量。
GitHub 深度集成:工具可直接在 GitHub 的拉取請求中留言,詳細解釋其推理過程、潛在影響以及具體的修復建議。
目前,Uber、Salesforce 和 Accenture 等大型企業已開始使用這一工具。儘管每次審覈的成本預計在 15 至 25 美元之間,但在 AI 生成代碼氾濫的背景下,這種高效率、低 Bug 率的自動化審計正成爲企業的剛需。
