对于使用AI的开发者来说,目前的“氛围编码”意味着要么时刻监控每一个操作,要么冒着让模型不受控制运行的风险。Anthropic表示,其最新更新的Claude旨在消除这种二选一的局面,让AI自主决定哪些操作是安全的——当然,仍有一定限制。

这一举措反映了整个行业的趋势,即AI工具越来越多地被设计成无需等待人工批准即可行动。挑战在于如何平衡速度与控制:过多的限制会拖慢进度,而限制过少则可能导致系统风险和不可预测。Anthropic推出的“自动模式”目前处于研究预览阶段,意味着可以测试但尚未成为正式产品,是其在这一平衡上的最新尝试。

自动模式通过AI安全机制在每次操作执行前进行审核,检查用户未请求的风险行为以及提示注入的迹象——提示注入是一种攻击方式,恶意指令隐藏在AI处理的内容中,导致AI执行非预期操作。所有安全的操作将自动执行,而风险操作则被阻止。

这实际上是对Claude Code现有“危险跳过权限”命令的扩展,后者将所有决策权交给AI,而自动模式则在此基础上增加了安全层。

该功能基于GitHub和OpenAI等公司推出的一系列自主编码工具,这些工具可以代表开发者执行任务。但Anthropic更进一步,将何时请求用户许可的决策权转移给了AI自身。

Anthropic尚未公开其安全层区分安全操作与风险操作的具体标准,开发者在广泛采用该功能前可能希望对此有更深入的了解。(TechCrunch已联系公司索取更多信息。)

自动模式的推出紧随Anthropic发布Claude Code Review——一款自动代码审查工具,旨在代码库提交前捕捉漏洞,以及Dispatch for Cowork——允许用户将任务分配给AI代理代为处理。

自动模式将在未来几天内向企业和API用户推出。公司表示,目前该功能仅支持Claude Sonnet 4.6和Opus 4.6版本,并建议在“隔离环境”中使用,即与生产系统分开的沙箱环境,以限制潜在的损害风险。