美国司法部律师在旧金山联邦法院提交的文件中表示,“第一修正案并不赋予Anthropic单方面对政府合同条款进行强加的权利,Anthropic未能提供任何支持这一激进结论的依据。”

Anthropic正在两个法院地点挑战五角大楼对其施加的限制标签,该标签可能因安全漏洞担忧而禁止公司参与国防合同。Anthropic认为,特朗普政府在贴标签并阻止其技术在国防部内部使用时超越了权限。如果该限制持续,Anthropic今年可能损失数十亿美元的预期收入。

Anthropic希望在诉讼解决前恢复正常业务。负责旧金山案件的法官Rita Lin已安排下周二举行听证会,决定是否批准Anthropic的请求。

司法部律师代表国防部及其他机构在周二的文件中称,Anthropic关于可能失去业务的担忧“在法律上不足以构成无法弥补的损害”,并呼吁Lin拒绝给予公司缓解措施。

律师们还指出,特朗普政府采取行动是基于“对Anthropic未来可能行为的担忧,若其继续拥有政府技术系统访问权限”。“没有人试图限制Anthropic的言论自由,”他们写道。

政府认为,Anthropic试图限制五角大楼使用其人工智能技术,促使国防部长Pete Hegseth“合理地”认定“Anthropic员工可能会破坏、恶意引入不良功能,或以其他方式破坏国家安全系统的设计、完整性或运行”。

国防部与Anthropic围绕该公司Claude AI模型的潜在限制展开争执。Anthropic认为,其模型不应被用于大规模监控美国人,且目前尚不够可靠,无法驱动完全自主的武器系统。

多位法律专家此前告诉WIRED,Anthropic有充分理由认为供应链措施构成非法报复。但法院通常支持政府的国家安全论点,五角大楼官员称Anthropic已成为失控的承包商,其技术不可信。

“特别是,国防部担心允许Anthropic继续访问其技术和作战基础设施会给供应链带来不可接受的风险,”周二文件指出。“人工智能系统极易被操纵,Anthropic可能会试图禁用其技术,或在持续的作战行动中预先改变模型行为,如果Anthropic认为其企业‘红线’被触碰。”

国防部及其他联邦机构正计划在未来几个月内用竞争对手的产品替代Anthropic的AI工具。据知情人士透露,军方通过Palantir数据分析软件广泛使用Claude模型。

律师们在文件中辩称,五角大楼“不能在Anthropic目前是唯一获准用于机密系统且高强度战斗行动正在进行时,简单地切换使用其他AI模型。”国防部正努力部署谷歌、OpenAI和xAI的AI系统作为替代方案。

包括AI研究人员、微软、联邦雇员工会及前军事领导人在内的多家公司和团体已提交法庭简报支持Anthropic,尚无任何支持政府的简报。

Anthropic需在周五前对政府的论点提交反驳回应。