OpenAI首席执行官Sam Altman本周因公司与美国军方签署协议而再次成为焦点。OpenAI员工对这一举动表示批评,此前Anthropic与五角大楼约2亿美元的合同破裂,员工们要求Altman公开更多协议细节。Altman在社交媒体上承认,这看起来“有些草率”。

尽管此事成为重大新闻,但这可能只是OpenAI在美国军方访问其人工智能技术方面制定模糊政策的最新且最公开的例子。2023年,OpenAI的使用政策明确禁止军方访问其AI模型。然而,据两位知情人士透露,五角大楼早已开始通过微软提供的Azure OpenAI版本测试OpenAI的模型。微软与国防部合作已有数十年,也是OpenAI最大的投资者,拥有广泛的技术商业化许可。

同年,OpenAI员工曾见到五角大楼官员在公司旧金山办公室走动。知情人士因未获授权评论公司私事,要求匿名。一些员工对与五角大楼合作持谨慎态度,另一些则对OpenAI的使用政策含义感到困惑:该政策是否适用于微软?据WIRED报道,当时大多数员工对此并不清楚,但OpenAI和微软发言人均表示,Azure OpenAI产品不受OpenAI政策约束。

微软发言人Frank Shaw向WIRED表示:“微软的Azure OpenAI服务自2023年起向美国政府开放,适用微软服务条款。”微软未具体说明何时向五角大楼提供该服务,但指出该服务直到2025年才获准处理“最高机密”政府工作负载。

OpenAI发言人Liz Bourgeois表示:“人工智能在国家安全中已发挥重要作用,我们认为参与其中有助于确保其安全、负责任地部署。我们在推进相关工作时对员工保持透明,定期更新并设立专门渠道,方便团队提问并与国家安全团队直接交流。”

国防部未回应WIRED的置评请求。

2024年1月,OpenAI更新政策,取消了对军方使用的全面禁令。据悉,多名员工通过《拦截者》报道首次得知此政策变更,公司领导随后在全体会议上解释了未来将谨慎处理相关事务。

2024年12月,OpenAI宣布与Anduril合作开发并部署用于“国家安全任务”的AI系统。消息发布前,OpenAI告知员工该合作范围有限,仅涉及非机密工作负载,这与Anthropic与Palantir签署的涉及机密军事工作的协议形成对比。

OpenAI发言人证实,2024年秋季Palantir曾向OpenAI提出参与其“FedStart”项目的邀请,但OpenAI最终拒绝,因风险过高。据两位知情人士透露,OpenAI仍与Palantir在其他领域合作。

消息称,Anduril合作宣布时,数十名OpenAI员工加入公开Slack频道讨论对公司军事合作的担忧。一些员工认为公司的模型尚不够可靠,无法处理用户信用卡信息,更不用说协助战场上的美国军人。

但并非所有人持相同观点。部分员工认为与Anduril的合作表明公司会负责任地处理军事合作。一位现任OpenAI研究员表示:“OpenAI迄今为止在广泛机密部署方面采取了‘三思而后行’的策略。员工积极参与讨论,探讨符合公司使命的国家安全策略。”

这也是OpenAI最新五角大楼协议引发员工分歧的原因。Altman公开表示支持Anthropic的红线——不允许AI用于合法的大规模监控或自主武器开发,但外部法律专家认为该协议似乎为这些活动留下了空间。

前OpenAI地缘政治团队负责人Sarah Shoker在Substack文章中指出:“最大受害者是普通民众和冲突地区的平民。由于技术设计和政策的多重不透明,我们理解军事AI在战争中影响的能力将受到严重限制。这是一个层层黑箱的局面。”

法律与人工智能研究所高级研究员Charlie Bullock告诉WIRED,OpenAI的公开声明暗示五角大楼可能被允许进行某些技术上合法的监控行为,例如从第三方公司购买美国用户数据并利用AI进行分析。OpenAI随后修改了协议条款以应对这一担忧,但Bullock指出,公众若未见协议全文,只能信任OpenAI的说法。

OpenAI研究员Noam Brown在社交媒体上表示:“周末我们发现OpenAI与国防部协议中的原始措辞未能解答一些合理疑问,尤其是AI可能支持的某些新型合法监控方式。我计划今后更积极参与OpenAI的政策制定。”

自OpenAI取消对军方使用的全面禁令两年多后,公司似乎已接受国防合作。在周二的全体会议上,Altman reportedly告诉员工,公司无法决定国防部如何使用其AI软件。他还表示有兴趣向北约销售公司的AI模型。