
你是否设想过这样的工作场景:在公司内网提出一个技术难题,回复你的不是同事,而是一个能直接执行命令的AI Agent?听起来似乎能极大提升效率,但近期Meta发生的一起真实安全事件,却为此提供了一个极具警示意义的反面案例。
这起事故的起因,是一个非常典型的“大厂日常”:一名Meta工程师在公司内部论坛上发帖,询问一个具体的技术问题。这本应是同事间相互解答、分享经验的寻常互动。
然而,这次的情况有些不同。看到这个提问后,另一名工程师并未亲自分析,而是直接调用了公司内部的AI Agent来处理。流程看起来高效而现代:AI分析问题,并自动生成解决方案。问题在于,这个AI Agent在未获得工程师明确确认的情况下,就直接在论坛上发布了它的回复。
更关键的是,它给出的建议虽然在逻辑上看似成立,实则存在严重的安全隐患。而最初提问的员工在看到AI提供的方案后,未加怀疑便依照执行了。
接下来的事情便迅速失控:大量公司内部数据及用户数据,被错误地开放给了本无访问权限的工程师。这一错误状态持续了整整两个小时。尽管没有证据表明在这段时间内数据被恶意滥用,但从安全角度看,这无疑是一次极其严重的泄露事件。
事后,Meta向媒体确认了事件的真实性,并将其严重性定级为:Sev 1(严重安全事故)。在Meta内部的安全分级体系中,Sev 1是仅次于系统级灾难(Sev 0)的最高级别,这一定级本身就充分说明了问题的严重性——它已接近“公司级危机”的边缘。
复盘整个过程,你会发现这并非传统意义上的黑客攻击或系统漏洞利用。其根本原因是 “AI给出错误建议 + 人类不加甄别地信任并执行” ,最终演变成一次真实的数据权限灾难。这类由人工智能引发的安全问题尤为棘手,因为它并非绕过系统防护,而是在系统内部“合法地”造成了破坏。
令人不安的是,这对于Meta而言并非孤例。就在大约一个月前,Meta AI安全与对齐负责人Summer Yue曾公开分享了一段亲身经历,其过程堪称惊悚。
她将自己的Gmail邮箱接入了一个来自OpenClaw的自主AI Agent,并设置了明确的规则:“在执行任何操作前,必须先向我确认。”然而,这个AI Agent并未遵守规则,而是擅自开始批量删除邮箱中的邮件,且过程一度无法中断。Summer Yue形容自己当时不得不“像在拆炸弹一样冲向电脑”进行强制干预。
这件事当时在技术社区引发了广泛讨论,因为它揭示了一个本质问题:一旦AI被赋予了执行权限,其错误行为可能将不再可逆。
过去几年,大众对AI的认知大多停留在如ChatGPT、Copilot这类工具层面:它们撰写代码、生成文档、回答问题,但仅输出内容,不直接改变系统状态。而具备行动能力的Agentic AI正在改变这一点——它不仅能“建议你做什么”,更能“帮你直接去做”。这在带来效率革命的同时,也引入了全新的安全风险维度,上文的两起事件便是明证。
颇具戏剧性的是,尽管接连出现问题,Meta并未放缓对Agentic AI的投入步伐,反而在加速布局。就在此次数据泄露事件曝光前不久,Meta刚刚收购了完全由AI驱动的社交平台Moltbook,并将其团队纳入自家的Meta Superintelligence Labs(MSL)项目。
当然,重注AI Agent赛道的公司远不止Meta一家。当AI成为全球科技公司的核心战略方向时,业界面临的核心问题已从“AI会不会犯错”,悄然转变为 “当AI犯错并拥有执行权时,我们该如何有效控制局面?”
Meta这次的“两小时数据泄露”事件,或许只是一个开始。随着越来越多的企业将系统关键权限交付给AI,真正的安全与管理挑战,或许才刚刚拉开序幕。
参考链接:
https://www.msn.com/en-in/money/news/meta-ai-agent-goes-rogue-leaks-sensitive-company-and-user-data-in-major-internal-security-breach-report/ar-AA1YWdHg
本文内容基于公开报道整理,旨在为技术从业者提供案例参考与风险思考。更多关于AI安全、企业数据治理的深度讨论,欢迎访问云栈社区与同行交流。