在编程领域,同伴反馈对于及早发现漏洞、保持代码库一致性以及提升软件整体质量至关重要。
随着“vibe coding”的兴起——即利用AI工具根据自然语言指令快速生成大量代码,开发者的工作方式发生了改变。虽然这些工具加快了开发速度,但也带来了新的漏洞、安全风险以及难以理解的代码。
Anthropic推出了一款AI代码审查工具,旨在在代码进入软件代码库之前发现潜在漏洞。该产品名为Code Review,于周一在Claude Code平台上线。
Anthropic产品负责人Cat Wu向TechCrunch表示:“我们看到Claude Code,尤其是在企业用户中,增长迅速。企业领导者常问:既然Claude Code产生了大量拉取请求,如何高效地进行代码审查?”
拉取请求是开发者提交代码变更以供审查的机制,Wu指出Claude Code显著提升了代码产出,导致拉取请求数量激增,成为代码发布的瓶颈。
“Code Review就是我们对此的解决方案。”Wu说。
此次Code Review首先面向Claude for Teams和Claude for Enterprise客户推出研究预览版,正值Anthropic公司关键时期。
周一,Anthropic针对美国国防部将其列为供应链风险一事提起两起诉讼。公司预计将更加依赖其快速增长的企业业务,自年初以来订阅量已增长四倍。公司称,Claude Code自发布以来的年化收入已超过25亿美元。

Wu表示:“该产品主要面向大型企业用户,如Uber、Salesforce、Accenture等,这些公司已在使用Claude Code,现在需要帮助处理大量拉取请求。”
开发负责人可为团队中的每位工程师默认开启Code Review。启用后,工具会与GitHub集成,自动分析拉取请求,并直接在代码中留下评论,指出潜在问题及修复建议。
Wu强调,工具重点关注逻辑错误而非代码风格。“许多开发者之前见过AI自动反馈,但如果反馈无法立即执行,他们会感到烦躁。我们决定专注于逻辑错误,这样能捕捉最优先需要修复的问题。”
AI会逐步解释其判断过程,说明问题所在、可能带来的影响以及潜在的解决方案。系统使用颜色标记问题严重程度:红色代表最高严重性,黄色表示值得审查的潜在问题,紫色则标注与既有代码或历史漏洞相关的问题。
Wu介绍,工具通过多个代理并行工作,每个代理从不同角度审查代码库,最后一个代理汇总并排序结果,去重并优先处理最重要的问题。
该工具提供基础的安全分析,工程负责人还可根据内部最佳实践定制额外检查。Wu称,Anthropic近期推出的Claude Code Security则提供更深入的安全分析。
由于多代理架构,Code Review资源消耗较大。定价基于使用的token数量,费用随代码复杂度变化,Wu估计每次审查平均费用在15至25美元之间。她表示,这是一项高端服务,随着AI生成代码的增多,这种工具变得尤为必要。
Wu总结:“Code Review源自强烈的市场需求。随着工程师使用Claude Code开发,他们感受到新功能开发的摩擦减少,同时对代码审查的需求大幅增加。我们希望借助这款工具,企业能比以往更快地构建软件,同时减少更多漏洞。”


