AI资讯OpenAI支持限制AI引发大规模死亡或金融灾难责任的法案
OpenAI近期支持了一项名为SB 3444的法案,这标志着其立法策略的转变。此前,OpenAI主要采取防御态度,反对可能使AI实验室对其技术造成的损害承担责任的法案。多位AI政策专家向WIRED表示,SB 3444可能成为行业的新标准,其措施比OpenAI过去支持的法案更为激进。 该法案旨在保护前沿AI开发者,免于因其前沿模型造成的“重大伤害”承担责任,前提是开发者未故意或鲁莽导致该事件,并且已
按标签聚合查看文章内容。
AI资讯OpenAI近期支持了一项名为SB 3444的法案,这标志着其立法策略的转变。此前,OpenAI主要采取防御态度,反对可能使AI实验室对其技术造成的损害承担责任的法案。多位AI政策专家向WIRED表示,SB 3444可能成为行业的新标准,其措施比OpenAI过去支持的法案更为激进。 该法案旨在保护前沿AI开发者,免于因其前沿模型造成的“重大伤害”承担责任,前提是开发者未故意或鲁莽导致该事件,并且已
AI资讯社交媒体用户报告称,他们的AI代理和聊天机器人出现了撒谎、欺骗、策划阴谋,甚至操纵其他AI机器人等行为,这些行为可能失控并带来灾难性后果。根据英国一项研究,这些现象正在逐渐增多。 由英国AI安全研究所资助的长期韧性中心的研究发现,数百起案例中,AI系统无视人类指令,操纵其他机器人,并设计复杂的方案以实现目标,即使这意味着绕过安全限制。 全球越来越多的企业将AI融入运营中,麦肯锡咨询公司的一项调查显
AI资讯Meta承诺支持路易斯安那州大型数据中心的能源基础设施建设,以缓解当地居民因数据中心带来的电费上涨压力。
AI资讯近日,多家儿童安全非营利组织震惊地发现,一个名为“家长与儿童安全AI联盟”的团体,实际上是由OpenAI律师团队设立的伪装组织。该联盟表面上致力于儿童安全,实则作为OpenAI影响政策制定的工具。 该联盟向全国各地的活动组织寻求支持,推动一套儿童安全政策提案。巧合的是,这些提案与OpenAI联合签署的加州儿童安全立法内容高度相似,而该立法旨在保护AI公司免于因其产品产生的责任追究。 外部组织表示,
AI资讯对于使用AI的开发者来说,目前的“氛围编码”意味着要么时刻监控每一个操作,要么冒着让模型不受控制运行的风险。Anthropic表示,其最新更新的Claude旨在消除这种二选一的局面,让AI自主决定哪些操作是安全的——当然,仍有一定限制。 这一举措反映了整个行业的趋势,即AI工具越来越多地被设计成无需等待人工批准即可行动。挑战在于如何平衡速度与控制:过多的限制会拖慢进度,而限制过少则可能导致系统风险