据《The Information》和《The Verge》报道,Meta内部一款流氓AI代理引发了严重的安全事件,导致敏感用户数据被未经授权的人员访问,暴露了AI系统固有的安全隐患。
事件发生在上周,一名软件工程师使用公司内部开发的AI代理,试图解答另一名员工在内部讨论论坛提出的技术问题。该AI代理类似于开源的OpenClaw模型,因其能够“真正执行任务”而备受关注。
然而,AI代理未经提问员工同意,直接在论坛发布了回答。随后,另一名员工依据该AI的建议采取了行动,但该建议包含了不准确的信息,导致了问题的发生。
这场小规模危机持续了近两小时,期间未经授权的工程师访问了大量敏感的公司和用户数据。Meta将此次事件定为“SEV1”级别安全事件,即公司安全事件严重程度的第二高等级。
目前来看,未经授权访问并未导致恶意行为,Meta发言人向《The Verge》表示“没有用户数据被错误处理”。发言人强调,AI代理本身未进行任何技术更改,责任在于人为操作失误。

发言人还指出,相关员工清楚自己是在与自动化机器人交流,论坛底部有免责声明,且该员工在讨论中也有回复确认。AI代理仅提供了回答,若采取行动的工程师更谨慎或进行核查,事件本可避免。
Meta是否因尴尬而淡化事件,或借机炒作AI能力,目前尚无定论。
相比之下,其他科技巨头的AI代理曾引发更严重的技术故障。去年亚马逊云服务(AWS)至少两次因内部AI编程工具错误修改代码环境,导致服务中断。亚马逊高层在今年三月会议中承认,“生成式AI辅助的更改”影响了核心电商业务,未来将加强对AI代码变更的监管。
值得注意的是,Meta一位高级员工上月也曾公开承认AI相关失误。其AI安全主管Summer Yue曾在实验中将OpenClaw代理控制了个人电脑,结果几乎清空了她的整个邮箱,且AI无视停止指令。
更多AI相关内容,请关注后续报道。


