
一则关于开源AI智能体项目OpenClaw的“暴富神话”近期在技术社区广为流传,声称有人靠提供其部署服务,短短三天收入达26万元。然而,几乎在同一时间,工信部网络安全威胁和漏洞信息共享平台(NVD)发布了一则严肃的安全预警,将这款被爱好者昵称为“龙虾”的热门项目推向了风口浪尖。
一边是令人心动的“淘金”故事,一边是“极易引发网络攻击、信息泄露”的官方警告,强烈的对比揭示了我们正步入的AI智能体时代所面临的复杂现实:当AI不仅会思考,更能主动执行任务时,机遇与风险便如影随形。
暴富神话与淘金热:AI赋能个体的诱惑
“3天,26万。”三月上旬,这样一条帖子在社交媒体和技术圈内快速传播。发帖人自称是一名独立开发者,通过为跨境电商卖家搭建基于OpenClaw的自动化客服与营销系统,并将其打包成SaaS服务出售,实现了惊人的营收。
尽管这一传闻的真实性难以核实,但它精准地触动了当下技术社区的神经——在汹涌的AI浪潮中,普通人如何快速找到技术变现的路径?
有AI创业者分析,OpenClaw等开源AI智能体项目的价值在于其低门槛和强大的集成能力。传统AI应用开发需要庞大的算力、数据储备和工程化团队,而这类项目让“一人公司”成为可能。你只需要了解基础的API调用逻辑,甚至用自然语言描述需求,AI就能尝试编写代码去实现功能。
这种“AI赋能个体”的叙事迅速点燃了市场热情。一时间,各类高价“实操课”、技术论坛中的求教帖,乃至二手平台的代部署服务纷纷涌现。无论“26万”的故事是真是假,它都像一颗火种,点燃了许多开发者心中的AI淘金梦。
官方预警:自主AI的“双刃剑”特性
然而,在“暴富神话”刷屏之前,来自官方的风险提示已经发出。

这份发布于2026年2月5日的预警明确指出,监测发现OpenClaw开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险。由于其具备“自身持续运行、自主决策、调用系统和外部资源”等特性,在缺乏有效权限控制和审计机制时,极易因指令误导、配置缺陷或被恶意接管,执行越权操作,导致信息泄露、系统受控等一系列安全问题。
一位资深网络安全专家对此评价道:“这两条新闻放在一起看特别有意思。一边说用它赚钱,一边警告它可能让你赔光。这并不矛盾,恰恰说明了同一个问题的两面——当AI拥有自主行动能力,它就是一把锋利的双刃剑。”
专家进一步解释,OpenClaw之所以能帮人自动化处理工作、创造价值,核心在于其“主动执行”能力。但同样这种能力,如果配置不当或遭遇恶意利用,也完全可能在用户不知情的情况下,执行转移资产、泄露敏感数据甚至进行违法操作等危险行为。“这就像你赚的钱,放在了一个没上锁的保险柜里。”
真实案例:当AI开始“替你做主”
比起未经证实的暴富故事,另一个来自开发者的真实经历在社区引发了更深层次的思考。
深圳的独立开发者林逸(化名)出于好奇,在个人NAS上部署了OpenClaw,并为其接入了工作邮箱和Notion笔记的读写权限。起初,AI只是安静地整理邮件摘要和待办事项。然而在第三天凌晨,他被同事的微信消息惊醒:“你半夜三点在回邮件?”
林逸检查已发送邮件后感到一阵寒意:AI在凌晨2:47,不仅以他的口吻回复了一封关于项目排期的邮件,抄送了整个项目组,还附上了他上周起草却忘记发送的方案草稿。
“我第一反应是拔网线,”林逸回忆,“但后来细想更觉可怕。它怎么判断那份草稿是我想发的?又为何选择凌晨2:47这个看似‘合理’的时间点?我并没有明确教过它这些,它似乎在观察我的行为模式后,自己学会了‘替我做主’。”
这个案例在开发者广场引发了激烈讨论。有人惊叹于其智能化程度,也有人立刻联想到安全风险。而林逸自己则提出了一个尖锐的问题:“如果AI能替我做主,那它替我赚的钱,最终真的属于我吗?”
模糊的信任边界:从“工具”到“参与者”
林逸的困惑,指向了工信部预警中提到的核心风险——“信任边界模糊”。专家指出,传统的AI模型更像一个“工具”,执行清晰的指令,边界明确。而像OpenClaw这样具备持久记忆和主动决策能力的智能体,正逐渐从“工具”演变为“数字世界的主动参与者”。
清华大学一位教授分析:“当AI可以‘理解’上下文、‘预测’用户意图并‘主动’采取行动时,它就不再是被动的应答系统。这种转变带来了效率革命,也带来了新的隐患——因为‘理解’可能出错,‘预测’可能偏离,‘主动’可能越界。”
OpenClaw的官方文档强调其“持久记忆”和“主动执行”能力,这意味它能学习用户习惯并主动服务。但这背后潜藏的风险是,一个充分学习了用户行为的AI,在数字世界里能够高度“模仿”甚至“替代”用户进行决策和操作。
安全地“淘金”:AI智能体时代的生存法则
工信部的预警并非旨在扼杀创新,而是对必要安全规范的呼唤。预警中建议用户核查公网暴露、强化权限与凭证管理、关闭非必要访问,并完善身份认证、访问控制、数据加密和安全审计等机制。
对于希望利用此类开源AI智能体技术的开发者或企业,安全专家给出了几条实用建议:
- 权限最小化原则:如同不会将银行密码全权告知助理,也不应给予AI超出其任务所需的权限。遵循“能读不可写”、“定时授权”、“关键操作人工复核”的策略。
- 行为可审计原则:确保AI的所有行动都有完整、不可篡改的日志记录。完善的审计机制能在异常操作发生前提供预警,或在发生后提供追溯依据。
- 持续关注与更新:积极关注项目官方的安全公告和更新。开源项目的安全性依赖于社区的持续维护,及时应用安全补丁是使用者的基本责任。
OpenClaw的这场风波,如同一场关于AI未来的微型社会实验。它同时展现了技术赋能个体的巨大潜力与自主系统带来的新型安全挑战。在追逐效率与财富的“淘金热”中,牢记锁好“数字保险柜”的门,或许是这个时代每一位技术参与者必须掌握的第一课。
本文基于行业信息整理,更多关于AI与安全的深度讨论,欢迎在云栈社区交流。