Anthropic宣佈在 Claude Code 平臺推出全新AI代碼審查工具 Code Review,旨在在漏洞進入代碼庫之前自動識別潛在問題,從而緩解企業開發流程中因代碼審查壓力激增帶來的效率瓶頸。該功能已於週一上線,並以研究預覽形式首先向 Claude for Teams 與 Claude for Enterprise 客戶開放。

隨着“直覺編碼”(vibe coding)模式興起,開發者越來越多地通過AI工具以自然語言生成大量代碼,顯著提升開發效率,但也帶來了代碼漏洞、安全風險以及可讀性下降等問題。Anthropic產品負責人Cat Wu在接受TechCrunch採訪時表示,隨着Claude Code大幅提升代碼生成效率,企業內部Pull Request數量迅速增長,傳統人工審查流程已難以承載,由此成爲軟件交付過程中的關鍵瓶頸。
新推出的Code Review功能通過與GitHub集成,自動分析開發者提交的Pull Request,並直接在代碼中標註潛在問題及修復建議。系統重點識別邏輯錯誤而非代碼風格問題,以提升反饋的可執行性。AI會逐步解釋其判斷依據,包括問題所在、潛在影響以及可行解決方案,並通過顏色區分風險級別:紅色表示嚴重問題,黃色爲需關注的潛在風險,紫色則提示與歷史錯誤或既有代碼結構相關的問題。
在技術架構上,該系統採用多智能體協作機制,由多個代理並行從不同維度審查代碼庫,最終由彙總代理整合結果、去重並確定優先級,以實現更高效的自動審查流程。此外,該工具還提供基礎安全分析能力,企業可根據內部規範增加自定義檢查規則,而Anthropic此前推出的 Claude Code Security 則提供更深入的安全檢測。
由於多智能體架構計算成本較高,Code Review採用基於代幣的計費模式,費用隨代碼複雜度變化。Cat Wu預計平均每次審查成本約爲15至25美元。她表示,該產品主要面向大型企業客戶,例如Uber、Salesforce和埃森哲等,這些公司已在大規模使用Claude Code,並希望藉助自動審查工具處理海量Pull Request。
這一產品發佈正值Anthropic發展的關鍵階段。當天該公司還就美國國防部將其列爲供應鏈風險企業一事提起兩項訴訟。與此同時,其企業業務正快速增長,公司稱自年初以來企業訂閱用戶已增長四倍,而Claude Code自推出以來年化收入已超過25億美元。
隨着AI生成代碼規模持續擴大,自動化代碼審查正逐漸成爲企業開發流程的重要基礎設施。Anthropic試圖通過這一功能幫助企業在提升開發速度的同時降低漏洞風險,並推動AI輔助軟件開發向更高可靠性階段發展。
