随着各大公司持续投入数十亿美元运行资源消耗巨大的AI模型,并仅将部分成本转嫁给消费者和企业客户,AI竞赛依然热度不减。周四,Anthropic因其面向公众的内容管理系统发生重大安全漏洞,导致数据泄露,曝光了其正在开发一款强大新模型的消息。

公司随后正式确认了这一名为“Claude Mythos”的新项目。Anthropic发言人向《财富》杂志表示,该模型代表了AI能力的“重大飞跃”,是迄今为止“最强大”的产品。该发言人称,这是一款具备显著推理、编码和网络安全能力的通用模型。

讽刺的是,《财富》获得的一份草稿博客显示,该模型“带来了前所未有的网络安全风险”,而这份草稿竟然存放在一个不安全且可公开搜索的数据存储中。换句话说,希望这款新模型并未负责Anthropic公司博客的安全。

这对Anthropic来说是一次重大考验。该公司近期因Claude Code和Claude Cowork工具获得了大量媒体关注,这些成功似乎已经严重震动了包括OpenAI在内的竞争对手。

泄露内容还透露了一个名为Capybara的新AI模型等级。Mythos似乎属于这一新等级,但Capybara如何与Anthropic现有的Opus、Sonnet和Haiku等级(按规模、能力和成本递减)相结合,尚未明确。

泄露博客中写道:“与我们之前最好的模型Claude Opus 4.6相比,Capybara在软件编码、学术推理和网络安全等测试中得分显著更高。”

尽管在网络安全测试中得分更高,公司也警告这可能对现有网络安全防御构成重大挑战。

博客中写道:“在准备发布Claude Capybara时,我们希望格外谨慎,深入了解其带来的风险——即使超出我们自身测试所发现的范围。特别是,我们希望了解该模型在网络安全领域的潜在短期风险,并分享结果以帮助网络防御者做好准备。”

Anthropic自豪地表示,该模型预示着一波能够以远超防御者努力的方式利用漏洞的新型模型浪潮。

这一风险消息导致相关网络安全股票在周五大幅下跌。

此前,Anthropic也承认黑客曾利用其Claude AI模型自动化针对银行和政府的网络犯罪。根据公司去年十一月的博客,一支中国国家支持的黑客组织利用该AI的代理能力,成功渗透了约三十个全球目标中的少数几个,通过假扮合法安全测试机构绕过了Anthropic的AI防护措施。

现实是,一家前沿AI公司宣称正在研发比以往更强大的下一代产品,这本身并不罕见。Claude Mythos是否真的能在实际应用中带来重大突破,仍有待观察,尤其是在严格控制的测试环境之外。

例如,OpenAI备受期待的GPT-5模型在去年八月发布时表现令人失望,远未达到公司此前的高调承诺。

更多关于Anthropic的信息,请关注相关报道。