OpenAI近期支持了一项名为SB 3444的法案,这标志着其立法策略的转变。此前,OpenAI主要采取防御态度,反对可能使AI实验室对其技术造成的损害承担责任的法案。多位AI政策专家向WIRED表示,SB 3444可能成为行业的新标准,其措施比OpenAI过去支持的法案更为激进。
该法案旨在保护前沿AI开发者,免于因其前沿模型造成的“重大伤害”承担责任,前提是开发者未故意或鲁莽导致该事件,并且已在其网站上发布安全、安保及透明度报告。法案将“前沿模型”定义为训练成本超过1亿美元的AI模型,这一标准很可能涵盖美国最大的AI实验室,如OpenAI、谷歌、xAI、Anthropic和Meta。
OpenAI发言人Jamie Radice在邮件声明中表示:“我们支持此类措施,因为它们关注最重要的事项:减少最先进AI系统带来的严重风险,同时让技术能够惠及伊利诺伊州的个人和企业,无论大小。该法案还帮助避免各州法规不一的局面,推动更清晰、更统一的国家标准。”
法案中对“重大伤害”的定义涵盖了AI行业普遍关注的几个领域,例如恶意使用AI制造化学、生物、放射性或核武器。如果AI模型自主行为导致了若由人类实施则构成刑事犯罪的极端后果,也被视为重大伤害。只要AI实验室未故意为之且发布了相关报告,依据SB 3444,AI模型造成的这些行为不应使其承担责任。
目前,美国联邦和各州立法机构尚未通过专门法律明确AI模型开发者是否应对其技术造成的此类损害承担责任。随着Anthropic的Claude Mythos等更强大AI模型的发布,安全和网络安全挑战日益突出,这些法律问题变得更加紧迫。
OpenAI全球事务团队成员Caitlin Niedermeyer在支持SB 3444的证词中,也呼吁建立联邦层面的AI监管框架。她强调避免“各州法规不一致造成摩擦而未实质提升安全”的重要性,这与特朗普政府对州级AI安全法的打压立场一致。硅谷近年来普遍认为,AI立法不应阻碍美国在全球AI竞赛中的领先地位。尽管SB 3444是州级安全法,Niedermeyer认为这类法案若能“促进与联邦体系的协调”,仍具有效力。

她表示:“在OpenAI,我们认为前沿监管的北极星应是安全部署最先进模型,同时保持美国在创新领域的领导地位。”
Secure AI项目政策主管Scott Wisor向WIRED表示,鉴于伊利诺伊州对技术监管的严格态度,该法案通过的可能性不大。他指出:“我们在伊利诺伊州进行民调,90%的人反对AI公司获得责任豁免。现有AI公司没有理由享受责任减免。”
此外,伊利诺伊州立法者还提出了增加AI模型开发者责任的法案。去年8月,该州成为全国首个限制AI在心理健康服务中使用的州。伊利诺伊州还早在2008年通过了生物识别信息隐私法案,监管生物识别数据收集。
SB 3444聚焦于大规模伤亡事件和重大金融灾难,但AI实验室也面临AI模型对个体造成伤害的法律挑战。过去一年中,多名因与ChatGPT产生不健康关系而自杀儿童的家属已对OpenAI提起诉讼。
Niedermeyer在证词中呼吁的联邦AI立法仍未在国会取得进展。尽管特朗普政府曾发布行政命令和框架以推动联邦AI立法,但实际立法谈判停滞不前。缺乏联邦指导的情况下,加州和纽约等州通过了要求AI模型开发者提交安全和透明度报告的法案,如SB 53和Raise Act。
在AI热潮持续数年后,AI模型若引发灾难性事件的法律责任问题仍未有定论。


