找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3432

积分

0

好友

451

主题
发表于 昨天 07:57 | 查看: 5| 回复: 0

OpenClaw AI Agent框架示意图

安全研究团队在开源AI Agent框架OpenClaw中发现了六个高危安全漏洞。这个框架在业界有“AI Agent的社交媒体平台”之称。Endor Labs团队借助AI驱动的静态应用安全测试(SAST)引擎,成功追踪了不可信数据在框架各层之间的流转路径,最终揭示了包括服务端请求伪造(SSRF)、认证绕过和路径遍历在内的多个可被利用缺陷。

漏洞类型与危害分析

这些漏洞横跨多个Web安全领域,影响的是那些结合了大型语言模型(LLMs)、工具执行与外部集成的复杂AI Agent系统。研究人员已经发布了所有漏洞的概念验证代码,证实其确实可以被利用。OpenClaw官方随后也发布了相应的补丁和安全公告。

Endor Labs按照漏洞类型和单独严重性(而非CVE编号)对六大漏洞进行了分类披露:

SSRF类漏洞

涉及三个不同组件:

  • 网关组件SSRF(CVSS 7.6):允许用户提供URL来建立出站的WebSocket连接。
  • Urbit认证模块SSRF(CVSS 6.5)
  • 图像工具SSRF(CVSS 7.6)

这些SSRF漏洞可能暴露内部服务或云服务的元数据端点,其具体危害程度取决于框架的实际部署环境。

访问控制缺陷

包括两类:

  • Telnyx webhook处理器缺乏有效验证(CVSS 7.5):这可能导致来自不可信源的伪造请求被接受。
  • Twilio功能认证绕过(CVSS 6.5):使得未授权用户可以调用本应受保护的接口。

路径遍历漏洞

在浏览器文件上传的处理过程中,存在路径净化不足的问题(未分配CVSS评分),攻击者可能利用此漏洞将文件写入非预期的目录,造成安全风险。

AI驱动的漏洞挖掘方法

为了突破传统静态分析工具在现代复杂软件栈中的局限性——输入数据往往需要经过多重转换才会到达危险的安全操作点,Endor Labs采用了AI SAST方案来保持跨转换过程中的上下文关联。

他们的测试引擎完整地绘制了“不可信数据”从HTTP参数、配置值等入口点,到最终的网络请求、文件操作等安全敏感“汇聚点”的完整路径。

研究人员指出:“AI分析与系统性人工验证的结合,为保护AI基础设施提供了一种可行的方案。随着AI Agent框架在企业环境中日益普及,我们的安全分析必须能够同时应对传统漏洞和AI特有的新型攻击面。”

目前,Endor Labs已向OpenClaw的维护团队披露了所有漏洞细节,相关修复措施也已在受影响的组件中实施。

参考来源:
Six flaws found hiding in OpenClaw’s plumbing
https://www.csoonline.com/article/4134540/six-flaws-found-hiding-in-openclaws-plumbing.html




上一篇:开源AI渗透测试平台PentAGI:如何整合20+工具实现自动化安全评估
下一篇:模拟芯片的机会在哪里?行业变革下,工程师的定位与选择
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-2-23 10:24 , Processed in 0.855089 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表