美国司法部近日在法庭文件中强烈回应了针对人工智能初创公司Anthropic的诉讼。政府坚持认为,将该公司标记为“供应链风险”并未侵犯其第一修正案权利,并预测Anthropic的诉讼最终将失败。

争议核心:AI限制与军事需求

此次争议源于Anthropic试图限制其Claude模型在军事领域的应用。对此,政府采取了坚定立场:

  • 合规惩罚:政府认为,鉴于Anthropic试图限制军方使用其AI模型,将其归类为风险是合理合法的。
  • 安全信任危机:司法部直言,由于Anthropic在军事合同谈判中的限制态度,该公司无法获得用于作战系统的信任。

特朗普政府曾下令将Anthropic从政府供应商名单中剔除,此举在业界引发巨大震动:

  • 数十亿美元损失风险:Anthropic高管警告,因被标记为“供应链风险”,多家合作伙伴已暂停合作,潜在损失高达数十亿美元。
  • 同行支持:包括谷歌DeepMind首席科学家Jeff Dean在内的多位OpenAI和谷歌员工提交法律文件,支持Anthropic反对政府禁令。

Anthropic始终坚持“AI安全”理念,拒绝将其技术用于自主武器或政府监控。然而,这一立场使其面临被排除在利润丰厚的军事合同市场之外的风险。与此同时,微软的OpenAI技术尽管过去也有限制,但已被证实正在接受五角大楼的测试。