
当AI获得“系统权限”,安全边界在哪里?
2026年1月,开源项目 Clawdbot(后更名为Moltbot)迅速走红。但紧随其热度而来的,是严峻的安全挑战。1月23日,安全研究人员公开披露了Clawdbot Gateway存在的未授权访问漏洞。据已披露的扫描数据,公网上暴露了超过1000个网关实例,其中数百个可直接绕过认证访问,存在API密钥泄露等高风险。这起事件的核心,在于开发者在追求“易用性”时,未能充分平衡安全基线要求。
事件全景:Moltbot为何成2026开年安全焦点?
近期,GitHub上有一个开源项目引发轰动,其星标数在一周内突破了9万。它并非简单的聊天机器人,而是一个运行在你本地设备、拥有“执行能力”和“记忆”的AI智能体。其所有记忆和配置都以Markdown格式存储在本地,在保障数据隐私的同时,能随本地数据积累而进化。
然而,业务便利性与安全性常如硬币的两面。在经历病毒式传播后,安全问题也随之扩散。2026年1月23日,大规模暴露得到确认——安全研究员发现上千个Moltbot(Clawdbot) Gateway实例直接暴露在公网,其中数百个实例无需授权即可访问。

技术剖析:AI获得root权限的背后逻辑
漏洞的根源在于设计逻辑。Moltbot的网关服务(Gateway)默认信任来自本地的连接(Localhost)。当用户通过反向代理(如Nginx)将其服务暴露到公网时,所有外部请求经过代理转发后,其源IP地址在Gateway看来都变成了 127.0.0.1。这导致Gateway将来自互联网的恶意流量误判为管理员在本地发起的合法操作,从而完全绕过了身份验证环节,攻击者得以直接调用API,获取敏感信息或执行命令。
官方修复与补丁
Moltbot官方于2026年1月25日发布了相关修复补丁。核心修复是引入了 gateway.trustedProxies 配置项,当检测到来自未受信代理的 X-Forwarded-For 等头部时,不再将连接视为可信的本地客户端。
补丁提交可参考:https://github.com/moltbot/moltbot/pull/1795

风险量化:你的数据正在被谁“看见”?
在AI时代,Agent智能体不仅是提升效率的工具,也可能成为企业内网新的威胁暴露面。一旦如Moltbot这类Agent框架存在未授权访问漏洞,其风险等级将从传统的“数据泄露”跃升至“系统接管”。攻击者面对的将不再是一个静态数据库,而是一个拥有高权限、上下文关联强且具备代码执行能力的“虚拟雇员”。具体风险包括:
凭据窃取与信息泄漏
Moltbot通常集成有OpenAI、Claude等主流大模型的API Key,以及各类内网数据库、云服务的访问凭证。攻击者一旦获取这些凭据,便能以此为跳板,对云端基础设施进行横向移动与资源窃取。
智能体功能劫持与恶意滥用
攻击者可直接接管Moltbot Agent的身份,利用其已建立的信任关系,向他人发送欺诈性指令或钓鱼链接。由于Agent通常被视为“官方自动化助手”,此类攻击的成功率与危害性极高。
任意命令执行
为处理复杂问题,诸如Moltbot的高级AI Agent框架通常被授予执行代码的高级权限。攻击者可借此操控Agent在承载服务器上运行任意系统命令,从而完全控制该服务器。
防护实战:从检测到加固的完整方案
如果您已在云服务器上部署了Moltbot(Clawdbot),建议遵循以下阶段,对您的AI服务进行系统化防护:资产梳理、风险发现、安全加固和响应处置。
资产梳理:清点环境中已部署的Moltbot
- 方式一:进入资产中心 → 主机资产 → 进程,输入进程名
Moltbot 或 Clawdbot 进行筛选。
- 方式二:进入资产中心 → 主机资产 → AI组件 → AI工具,输入
Moltbot 或 Clawdbot 进行筛选。
漏洞扫描:发现Moltbot未授权访问漏洞
- 操作路径:风险治理 → 漏洞管理 → 一键扫描(选择“应用漏洞”)。扫描完成后,在应用漏洞分类下查找名为“Moltbot (Clawdbot) Gateway未授权访问漏洞”的风险项。

运行时防御:监控AI服务及资产的异常行为
- 开启防勒索:对重要业务文件进行定期备份,确保核心数据在遭到破坏后可恢复。
- 开启病毒查杀:周期性对主机文件进行安全扫描,防止被植入木马、挖矿程序等恶意文件。
- 主机规则管理:启用所有网络防御和进程防御规则,对攻击者的渗透测试与恶意行为实施主动拦截。

- 核心文件监控:为重要配置文件、密钥文件等设置监控规则,当非白名单进程试图读取时,立即触发安全告警。

检测分析与响应
- 关注安全告警:充分利用安全中心的实时检测能力,对攻击者的恶意行为保持感知,并及时处置相关告警。
AI Agent安全治理的“无人区”
“自主性”与“可控性”的冲突源于安全模型过时
步入2026年,AI Agent正从“助手”向具有更高自主性的“数字员工”演进。Moltbot从爆红到曝出严重漏洞,其核心矛盾在于:Agent被赋予自主解决问题的能力,但这种“不受限”的行为模式天然挑战着基于人类操作设计的静态安全体系。传统单点防护机制,难以适应Agent以“机器速度”在多层面同时发起的复杂挑战。
没有治理的“自主AI”是混乱
随着AI应用激增,供应链风险与权限管理真空问题日益突出。大量引入的开源AI软件可能形成供应链“黑箱”,而授权失控则让AI Agent的权限管理处于真空状态,企业数据安全正从被动流失转向“数字员工”的主动泄漏。
构建“受控的自主”统一治理框架
面对AI Agent带来的新型安全风险,零散的补丁式升级已难以应对。企业需要思考的是,如何将现有安全体系转型,构建一个覆盖基础网络、软件供应链、访问授权、数据流及业务应用的全新AI安全治理框架,实现对AI智能体“自主性”的受控管理。

AI技术的安全落地是一场持续的攻防。希望本次对Moltbot安全事件的剖析与防护指南,能为各位开发者和安全从业者带来启发。更多前沿技术分析与实战讨论,欢迎访问云栈社区进行交流。