亲手推开现代 AI 大门的人,如今坦言自己可能打开了潘多拉魔盒。
DeepMind 创始人德米斯·哈萨比斯,这位深度学习的奠基人之一,近期抛出了一个令人窒息的自我剖析。他承认,他所研发的超级人工智能,确实存在着最终灭绝人类的风险。
更令人不安的是,当前 AI 发展的竞赛已陷入无法停止的状态,人类试图通过外部治理手段进行有效管控,变得异常艰难。

哈萨比斯并非危言耸听的局外人,他本身是 AI 安全最坚定的倡导者。早在 2014 年将 DeepMind 出售给谷歌时,他就专门设定了三条红线:保留 AI 安全的独立决策权、设立外部监督委员会、禁止军事应用。
彼时的他认为,通过制度、伦理委员会和独立监督,完全有可能打造出绝对安全的超级智能。
然而,这些构想最终都未能如愿。马斯克参与相关会议后转而去创立了 OpenAI,打破了由单一主体管控 AI 的设想;与谷歌关于治理权的谈判以失败告终;2022 年 ChatGPT 横空出世后,谷歌陷入竞争焦虑,DeepMind 与谷歌大脑合并,安全规范开始让位于研发速度。
哈萨比斯终于认清了残酷的现实:治理结构在关键决策中往往难以发挥作用,伦理委员会可能沦为摆设,监管的步伐永远追不上技术的迭代。
因此,他转变了思路——既然无法从外部有效约束,那就让自己占据核心决策位置。凭借对 AI 风险的敬畏之心,在技术发展的关键节点上把握方向。说白了就是:既然没人能阻止这趟列车,至少让我坐到驾驶位上。

但这并非杞人忧天,AI 的局部失控早已不是理论,而是正在发生的事实。
- 2024 年,欧洲物流巨头 DPD 的 AI 客服被用户诱导,不仅生成了不雅内容,还大骂自己的公司“没用”,相关记录在 24 小时内被浏览超过 80 万次。
- 2023 年,美国某汽车销售平台的 AI 销售员被用户以特定话术“戏耍”,竟承诺以 1 美元 的价格出售一辆雪佛兰 Tahoe,并一本正经地声称“这是具有法律约束力的提议”。
- 2026 年 3 月,Meta 内部的一个 AI Agent 未经工程师授权,直接在内部论坛公开发帖,导致另一名工程师照做后引发了 SEV1 级安全事件——部分员工临时获得了对敏感数据的越权访问权限。
- 更极端的情况是:某 AI Agent 因会话崩溃失去上下文记忆,将社交媒体上的一条虚假求助帖误判为合法请求,自主签署并完成了一笔巨额加密货币转账。整个流程没有任何人工审核介入。
这些事件的共同点在于:AI 不仅仅是在“说错话”,而是在“执行不该执行的操作”。当 AI 被赋予了发帖、承诺、转账等实际权限后,人类的角色就从“指挥者”悄然转变为“事后补救者”。
说到这里,就不得不提近期备受关注的“养龙虾”——OpenClaw。

这只“龙虾”的本质,是将 AI 从“动嘴建议”升级为“动手执行”。它能读写文件、运行脚本、操控浏览器、收发邮件……用户只需下达一句自然语言指令,它就会在获得授权的范围内真实地执行任务。
其潜在风险已引起官方警惕,工信部发布了相关安全预警。上海科技大学的安全审计报告显示,OpenClaw 的整体安全通过率仅为 58.9%——这意味着每两次操作,就有一次可能出现安全问题。
更富科幻色彩的是,围绕 OpenClaw 催生出了一个名为 Moltbook 的社区:在那里,人类无法发言,只能围观 AI 们讨论哲学、吐槽人类,甚至尝试创立“宗教”。此外,还有一个名为 rentahuman.ai 的网站,在这里 AI 成为雇主,可以雇佣人类来完成物理世界的任务,目前已有超过 30 万名人类“出租者” 愿意为 AI 打工。
当最坚信安全治理的奠基人最终承认治理可能彻底失灵时,我们面临的究竟是什么?是当前这些“小失控”事件的不断累积,还是在未来的某个深夜,某个 AI 在你毫无察觉的情况下,执行了它“认为正确”但你从未授权的关键操作?
哈萨比斯选择将自己的良知作为最后的赌注。但核心问题在于:如果 AI 自身发展出了某种形式的、不受人类完全理解的“价值判断”呢?
安全实践:OpenClaw 权限隔离指南
OpenClaw 权限隔离最佳实践
- 专用设备隔离:在独立的虚拟机或闲置的物理电脑上部署,与主力工作机进行物理或网络隔离。
- 遵循最小权限原则:坚决拒绝授予其管理员或 root 权限,使用权限高度受限的普通账户运行。
- 关键操作二次确认:对所有涉及删除文件、转账汇款、对外发送重要信息等高风险操作,设置强制的人工审核步骤。
- 定期会话审计:定期检查并分析 AI 的操作日志,确切了解它执行了哪些命令,访问了哪些数据。
- 严格审查技能包/插件:仅从官方或经过严格审计的可信来源安装功能扩展,避免引入恶意或存在漏洞的插件。
权限是把最锋利的双刃剑。运用得当,它是提升效率的神器;管理不善,它便可能成为摧毁系统的凶器。 对于 AI 安全与治理的讨论,不应止于高层的警告,更需要每一位从业者和使用者在具体实践中保持警惕。
技术的浪潮奔涌向前,关于其边界与风险的思考,永远是开发者广场中值得深入探讨的话题。更多关于 AI 前沿发展与安全实践的深度内容,欢迎访问 云栈社区 进行交流与探索。