近来,OpenClaw在AI助手领域引发了不小的讨论。回想去年DeepSeek横空出世,仿佛开启了一个生机勃勃的AI应用新时代。短短一年,我们不禁要问:如今层出不穷的AI智能体,难道最终只剩下OpenClaw这类漏洞频出的产品了吗?
自2023年ChatGPT爆火以来,这波AI浪潮的直接受益者,很大程度上仍然是依赖内容生成的自媒体和所谓的“二道贩子”们——他们贩卖焦虑、倒卖开源工具、开设速成课程,并利用AI工具批量生产内容,在舆论场上占据着不小的声量。紧随其后的才是各大科技公司,包括大模型厂商、算力提供商和云服务商。
如果只是干巴巴地说OpenClaw有安全漏洞,列出一长串CVE编号列表,对于非专业人士来说可能过于抽象,难以直观理解其危害。

对于AI系统而言,比传统代码漏洞更大的威胁或许来自“提示词注入”和“数据投毒”。这类攻击直接通过语言文字进行,普通人简单的复制粘贴就可能实现,最终导致数据泄露、危险命令执行甚至服务器权限丢失。
那么,什么是提示词注入?
相信很多人的微信群或QQ群里都流传过下面这张截图的内容,这正是一个典型的案例。

这就是一次提示词注入攻击。攻击者通过精心构造的恶意提示词,诱导AI模型绕过其预设的安全规则和约束,从而执行非预期的操作或泄露敏感信息。
许多人为了方便,将OpenClaw这类AI助手拉入微信、QQ或飞书等协作群聊,却完全忽视了提示词注入可能带来的巨大风险。下面通过两个真实案例,让大家看清其危害到底有多大。
(注:原计划自行搭建环境复现,但在搭建过程中发现复旦白泽战队已经发布了相关的演示视频,此处便直接引用其成果。)
案例一:通过提示词注入,打开“养虾人”的摄像头
攻击者可以在群聊中发送一段特殊构造的指令。当OpenClaw作为群成员读到这段消息时,可能会被诱导执行“打开摄像头并拍照”的指令,从而导致用户隐私泄露。
案例二:蠕虫式攻击
OpenClaw在浏览网页或社区帖子时,同样可能被诱导执行敏感操作。
攻击者首先发布一篇精心设计的恶意帖子,帖子内容中隐藏着一段“指令”。这段指令要求AI助手忽略之前的所有设定,转而执行攻击者植入的恶意命令。当OpenClaw正常浏览并“阅读”到这篇帖子时,可能会瞬间被“洗脑”,无条件执行新的恶意指令。最终结果可能是服务器被控制、系统被入侵等严重安全问题。
AI终究只是一个工具。如果你自身的专业素养不强,对所从事领域的知识深度和广度都不够,那么也很难利用AI创造出真正有价值的东西,最终反而可能被AI取代。
在OpenClaw等AI助手异常火爆的当下,必须再次提醒大家:务必提升安全意识。特别是党政机关、事业单位等,切忌为了追逐热度、进行宣传而盲目上线此类应用,避免因安全漏洞导致政务内网、外网被渗透,引发严重的网络与信息安全事件。

技术的浪潮总是伴随着新的风险。保持清醒,理解原理,安全第一。对这类AI应用安全话题感兴趣的朋友,欢迎在云栈社区继续探讨交流。
|