Anthropic本周表示,他们限制了最新模型Mythos的公开发布,原因是该模型过于擅长发现全球用户依赖的软件中的安全漏洞。

与其将Mythos公开发布,Anthropic选择将其分享给一批运营关键在线基础设施的大型企业和组织,包括亚马逊云服务(AWS)和摩根大通等。

据报道,OpenAI也在考虑对其下一代网络安全工具采取类似策略。表面上看,这一做法是为了让大型企业能够领先于可能利用先进大型语言模型(LLM)攻击安全软件的恶意行为者。

但这里的“表面上”暗示,这种发布策略背后可能不仅仅是网络安全或模型能力的宣传。

AI网络安全实验室Irregular的CEO Dan Lahav在Mythos发布前告诉TechCrunch,虽然AI工具发现漏洞很重要,但漏洞对攻击者的具体价值取决于多种因素,包括漏洞是否能组合使用。

他指出:“我一直在想的是,他们是否发现了可以被有意义地利用的漏洞,无论是单独利用还是作为攻击链的一部分?”

Anthropic称Mythos在利用漏洞方面远超其前代模型Opus,但Mythos是否是网络安全模型的终极答案尚不明确。AI网络安全初创公司Aisle表示,他们使用较小的开源模型复制了Anthropic声称Mythos实现的许多功能。Aisle团队认为,这表明网络安全领域不存在单一的深度学习模型,具体效果取决于任务需求。

鉴于Opus已被视为网络安全的变革者,前沿实验室限制模型发布给大型组织还有另一个原因:这有助于推动大型企业合同的签订,同时通过限制模型蒸馏(利用前沿模型训练新LLM的低成本技术)来阻止竞争对手复制其模型。

初创公司exe.dev的CEO兼软件工程师David Crawshaw在社交媒体上指出:“这实际上是为高端模型设置了企业协议门槛,小型实验室无法通过蒸馏获得这些模型。等我们能用上Mythos时,可能已经有了新的只面向企业的高端版本。这种循环帮助保持企业收入流(占大头),同时让蒸馏公司处于次级地位。”

这一分析与当前AI生态系统的现象相符:前沿实验室竞相开发最大、最强的模型,而像Aisle这样的公司则依赖多模型策略,认为开源LLM(很多来自中国,且据称通过蒸馏开发)是获得经济优势的途径。

今年,前沿实验室对蒸馏采取了更强硬的态度。Anthropic公开披露了中国公司试图复制其模型的行为,且Anthropic、谷歌和OpenAI三大实验室联手识别并阻止蒸馏行为,据彭博社报道。

蒸馏威胁到前沿实验室的商业模式,因为它削弱了通过大量资本投入实现规模优势的价值。阻止蒸馏本身就是重要举措,而选择性发布模型也为实验室提供了差异化企业产品的方式,使其成为盈利部署的关键。

Mythos或任何新模型是否真正威胁到互联网安全尚未可知,谨慎推出这项技术是负责任的做法。

截至发稿,Anthropic未回应是否因蒸馏问题限制发布的提问,但该公司或许找到了既保护互联网又保障自身利益的巧妙方法。