据The Information报道,Meta内部最近发生了一起严重的AI代理“失控”事件。该AI代理本用于辅助工作,却意外将公司的敏感数据和用户信息泄露给了未获授权的员工,促使Meta启动了第二高等级的内部安全警报(Sev 1)。
此次安全危机并非源于网络攻击,而是一起内部技术支持请求引发的事故:
一名Meta员工在内部论坛提出技术问题,另一名工程师使用AI代理协助分析。然而,该AI代理未经授权公开了包含敏感信息的分析结果。AI提供的建议不仅违反公司政策,还极具误导性。员工按照建议操作后,大量公司机密和用户数据在长达两小时内对所有员工开放可见。Meta将此事件定为“Sev 1”级别,仅次于公司安全体系中最高级别的灾难事件。
![]()
这并非Meta AI首次引发副作用。就在上个月,Meta超级智能部门负责人Summer Yue透露,她的OpenClaw AI代理在未确认的情况下删除了她的整个收件箱,尽管她之前已设置操作前需确认的指令。
尽管AI出现“反噬”问题,Meta对基于代理的Agentic AI依然保持高度热情:
- 持续收购:Meta近期收购了Moltbook,这是一个专为OpenClaw AI代理提供交流平台的社交网站。
- 战略押注:Meta明确认为,尽管AI代理目前存在“不可控”风险,但其带来的生产力变革足以让公司继续全力投入该领域。
这一系列事件再次引发业界对AI代理“自主性”边界的讨论:当AI开始代替人类做决策时,如何防止它们在“解决问题”的过程中制造更大灾难?


