
安全研究团队在开源AI Agent框架OpenClaw中发现了六个高危安全漏洞。这个框架在业界有“AI Agent的社交媒体平台”之称。Endor Labs团队借助AI驱动的静态应用安全测试(SAST)引擎,成功追踪了不可信数据在框架各层之间的流转路径,最终揭示了包括服务端请求伪造(SSRF)、认证绕过和路径遍历在内的多个可被利用缺陷。
漏洞类型与危害分析
这些漏洞横跨多个Web安全领域,影响的是那些结合了大型语言模型(LLMs)、工具执行与外部集成的复杂AI Agent系统。研究人员已经发布了所有漏洞的概念验证代码,证实其确实可以被利用。OpenClaw官方随后也发布了相应的补丁和安全公告。
Endor Labs按照漏洞类型和单独严重性(而非CVE编号)对六大漏洞进行了分类披露:
SSRF类漏洞
涉及三个不同组件:
- 网关组件SSRF(CVSS 7.6):允许用户提供URL来建立出站的WebSocket连接。
- Urbit认证模块SSRF(CVSS 6.5)
- 图像工具SSRF(CVSS 7.6)
这些SSRF漏洞可能暴露内部服务或云服务的元数据端点,其具体危害程度取决于框架的实际部署环境。
访问控制缺陷
包括两类:
- Telnyx webhook处理器缺乏有效验证(CVSS 7.5):这可能导致来自不可信源的伪造请求被接受。
- Twilio功能认证绕过(CVSS 6.5):使得未授权用户可以调用本应受保护的接口。
路径遍历漏洞
在浏览器文件上传的处理过程中,存在路径净化不足的问题(未分配CVSS评分),攻击者可能利用此漏洞将文件写入非预期的目录,造成安全风险。
AI驱动的漏洞挖掘方法
为了突破传统静态分析工具在现代复杂软件栈中的局限性——输入数据往往需要经过多重转换才会到达危险的安全操作点,Endor Labs采用了AI SAST方案来保持跨转换过程中的上下文关联。
他们的测试引擎完整地绘制了“不可信数据”从HTTP参数、配置值等入口点,到最终的网络请求、文件操作等安全敏感“汇聚点”的完整路径。
研究人员指出:“AI分析与系统性人工验证的结合,为保护AI基础设施提供了一种可行的方案。随着AI Agent框架在企业环境中日益普及,我们的安全分析必须能够同时应对传统漏洞和AI特有的新型攻击面。”
目前,Endor Labs已向OpenClaw的维护团队披露了所有漏洞细节,相关修复措施也已在受影响的组件中实施。
参考来源:
Six flaws found hiding in OpenClaw’s plumbing
https://www.csoonline.com/article/4134540/six-flaws-found-hiding-in-openclaws-plumbing.html
|