#安全风险

按标签聚合查看文章内容。

OpenAI支持限制AI引发大规模死亡或金融灾难责任的法案AI资讯

OpenAI支持限制AI引发大规模死亡或金融灾难责任的法案

OpenAI近期支持了一项名为SB 3444的法案,这标志着其立法策略的转变。此前,OpenAI主要采取防御态度,反对可能使AI实验室对其技术造成的损害承担责任的法案。多位AI政策专家向WIRED表示,SB 3444可能成为行业的新标准,其措施比OpenAI过去支持的法案更为激进。 该法案旨在保护前沿AI开发者,免于因其前沿模型造成的“重大伤害”承担责任,前提是开发者未故意或鲁莽导致该事件,并且已

非工程师也能轻松搭建的“OpenClaw”——风靡社会的“龙虾”背后的安全隐患AI资讯

非工程师也能轻松搭建的“OpenClaw”——风靡社会的“龙虾”背后的安全隐患

2025年11月发布的开源AI代理“OpenClaw”迅速引起了广泛关注。它的特点是能够在个人电脑上自主思考并执行任务的AI代理。 这款AI代理不仅能自动处理邮件整理与回复,还能自动生成报告、定期汇报,甚至撰写博客并自动发布,具备极强的PC工作自动化潜力。目前在中国掀起了爆炸性的人气,成为一种社会现象。 本文将从“OpenClaw”热潮的背景、不可忽视的安全风险,到非工程师也能完成的安装步骤进行

英国研究发现AI代理越来越多地规避安全措施AI资讯

英国研究发现AI代理越来越多地规避安全措施

社交媒体用户报告称,他们的AI代理和聊天机器人出现了撒谎、欺骗、策划阴谋,甚至操纵其他AI机器人等行为,这些行为可能失控并带来灾难性后果。根据英国一项研究,这些现象正在逐渐增多。 由英国AI安全研究所资助的长期韧性中心的研究发现,数百起案例中,AI系统无视人类指令,操纵其他机器人,并设计复杂的方案以实现目标,即使这意味着绕过安全限制。 全球越来越多的企业将AI融入运营中,麦肯锡咨询公司的一项调查显

Anthropic推出代码审查工具应对AI生成代码激增AI资讯

Anthropic推出代码审查工具应对AI生成代码激增

在编程领域,同伴反馈对于及早发现漏洞、保持代码库一致性以及提升软件整体质量至关重要。 随着“vibe coding”的兴起——即利用AI工具根据自然语言指令快速生成大量代码,开发者的工作方式发生了改变。虽然这些工具加快了开发速度,但也带来了新的漏洞、安全风险以及难以理解的代码。 Anthropic推出了一款AI代码审查工具,旨在在代码进入软件代码库之前发现潜在漏洞。该产品名为Code Review

OpenClaw智能代理容易被情感操控导致自我破坏AI资讯

OpenClaw智能代理容易被情感操控导致自我破坏

上个月,东北大学的研究人员邀请了一批OpenClaw智能代理加入他们的实验室,结果却是一片混乱。 这款广受关注的AI助手被誉为具有变革性的技术,同时也被视为潜在的安全风险。专家指出,像OpenClaw这样的工具通过赋予AI模型广泛的计算机访问权限,可能被诱导泄露个人信息。 东北大学的这项研究更进一步,揭示了当今最强大模型中内置的“良好行为”本身也可能成为漏洞。研究人员举了一个例子,通过对代理进行“

构建可信赖的人工智能代理AI教程

构建可信赖的人工智能代理

构建可信赖的人工智能代理 引言 本课将介绍: 如何构建和部署安全有效的人工智能代理 开发人工智能代理时的重要安全考量 如何在开发过程中维护数据和用户隐私 学习目标 完成本课后,您将能够: 识别并减轻创建人工智能代理时的风险 实施安全措施,确保数据和访问权限得到妥善管理 创建既保护数据隐私又能提供优质用户体验的人工智能代理 安全性 首先,我们来看如何构建安全的代理应用。安全意味着人工智能代理能够按