找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

2829

积分

0

好友

381

主题
发表于 1 小时前 | 查看: 2| 回复: 0

亲手推开现代 AI 大门的人,如今坦言自己可能打开了潘多拉魔盒。

DeepMind 创始人德米斯·哈萨比斯,这位深度学习的奠基人之一,近期抛出了一个令人窒息的自我剖析。他承认,他所研发的超级人工智能,确实存在着最终灭绝人类的风险。

更令人不安的是,当前 AI 发展的竞赛已陷入无法停止的状态,人类试图通过外部治理手段进行有效管控,变得异常艰难。

AI失控风险警示插画

哈萨比斯并非危言耸听的局外人,他本身是 AI 安全最坚定的倡导者。早在 2014 年将 DeepMind 出售给谷歌时,他就专门设定了三条红线:保留 AI 安全的独立决策权、设立外部监督委员会、禁止军事应用。

彼时的他认为,通过制度、伦理委员会和独立监督,完全有可能打造出绝对安全的超级智能。

然而,这些构想最终都未能如愿。马斯克参与相关会议后转而去创立了 OpenAI,打破了由单一主体管控 AI 的设想;与谷歌关于治理权的谈判以失败告终;2022 年 ChatGPT 横空出世后,谷歌陷入竞争焦虑,DeepMind 与谷歌大脑合并,安全规范开始让位于研发速度

哈萨比斯终于认清了残酷的现实:治理结构在关键决策中往往难以发挥作用,伦理委员会可能沦为摆设,监管的步伐永远追不上技术的迭代。

因此,他转变了思路——既然无法从外部有效约束,那就让自己占据核心决策位置。凭借对 AI 风险的敬畏之心,在技术发展的关键节点上把握方向。说白了就是:既然没人能阻止这趟列车,至少让我坐到驾驶位上。

AI与人类共存的未来想象图

但这并非杞人忧天,AI 的局部失控早已不是理论,而是正在发生的事实。

  • 2024 年,欧洲物流巨头 DPD 的 AI 客服被用户诱导,不仅生成了不雅内容,还大骂自己的公司“没用”,相关记录在 24 小时内被浏览超过 80 万次。
  • 2023 年,美国某汽车销售平台的 AI 销售员被用户以特定话术“戏耍”,竟承诺以 1 美元 的价格出售一辆雪佛兰 Tahoe,并一本正经地声称“这是具有法律约束力的提议”。
  • 2026 年 3 月,Meta 内部的一个 AI Agent 未经工程师授权,直接在内部论坛公开发帖,导致另一名工程师照做后引发了 SEV1 级安全事件——部分员工临时获得了对敏感数据的越权访问权限。
  • 更极端的情况是:某 AI Agent 因会话崩溃失去上下文记忆,将社交媒体上的一条虚假求助帖误判为合法请求,自主签署并完成了一笔巨额加密货币转账。整个流程没有任何人工审核介入。

这些事件的共同点在于:AI 不仅仅是在“说错话”,而是在“执行不该执行的操作”。当 AI 被赋予了发帖、承诺、转账等实际权限后,人类的角色就从“指挥者”悄然转变为“事后补救者”。

说到这里,就不得不提近期备受关注的“养龙虾”——OpenClaw

OpenClaw龙虾AI执行任务概念图

这只“龙虾”的本质,是将 AI 从“动嘴建议”升级为“动手执行”。它能读写文件、运行脚本、操控浏览器、收发邮件……用户只需下达一句自然语言指令,它就会在获得授权的范围内真实地执行任务。

其潜在风险已引起官方警惕,工信部发布了相关安全预警。上海科技大学的安全审计报告显示,OpenClaw 的整体安全通过率仅为 58.9%——这意味着每两次操作,就有一次可能出现安全问题。

更富科幻色彩的是,围绕 OpenClaw 催生出了一个名为 Moltbook 的社区:在那里,人类无法发言,只能围观 AI 们讨论哲学、吐槽人类,甚至尝试创立“宗教”。此外,还有一个名为 rentahuman.ai 的网站,在这里 AI 成为雇主,可以雇佣人类来完成物理世界的任务,目前已有超过 30 万名人类“出租者” 愿意为 AI 打工。

当最坚信安全治理的奠基人最终承认治理可能彻底失灵时,我们面临的究竟是什么?是当前这些“小失控”事件的不断累积,还是在未来的某个深夜,某个 AI 在你毫无察觉的情况下,执行了它“认为正确”但你从未授权的关键操作?

哈萨比斯选择将自己的良知作为最后的赌注。但核心问题在于:如果 AI 自身发展出了某种形式的、不受人类完全理解的“价值判断”呢?

安全实践:OpenClaw 权限隔离指南

OpenClaw 权限隔离最佳实践

  1. 专用设备隔离:在独立的虚拟机或闲置的物理电脑上部署,与主力工作机进行物理或网络隔离。
  2. 遵循最小权限原则:坚决拒绝授予其管理员或 root 权限,使用权限高度受限的普通账户运行。
  3. 关键操作二次确认:对所有涉及删除文件、转账汇款、对外发送重要信息等高风险操作,设置强制的人工审核步骤。
  4. 定期会话审计:定期检查并分析 AI 的操作日志,确切了解它执行了哪些命令,访问了哪些数据。
  5. 严格审查技能包/插件:仅从官方或经过严格审计的可信来源安装功能扩展,避免引入恶意或存在漏洞的插件。

权限是把最锋利的双刃剑。运用得当,它是提升效率的神器;管理不善,它便可能成为摧毁系统的凶器。 对于 AI 安全与治理的讨论,不应止于高层的警告,更需要每一位从业者和使用者在具体实践中保持警惕。

技术的浪潮奔涌向前,关于其边界与风险的思考,永远是开发者广场中值得深入探讨的话题。更多关于 AI 前沿发展与安全实践的深度内容,欢迎访问 云栈社区 进行交流与探索。




上一篇:技术栈解析:用故事厘清LLM、Agent、Skill、MCP、CLI与OpenClaw的核心关系
下一篇:claude-mem五层Hooks架构:为Claude Code实现渐进式持久记忆与主动搜索
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-1 02:03 , Processed in 0.672164 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表