
AI Agent 平台 OpenClaw 近日宣布与谷歌旗下的威胁情报平台 VirusTotal 达成合作,为其 Skill 市场 ClawHub 引入了一套自动化的安全扫描机制。这可能是目前新兴的 AI Agent 生态系统中,首个全面且深入的安全举措。
自动化安全扫描流程
所有提交到 ClawHub 的 Skill 现在都会自动经过 VirusTotal 威胁情报数据库及其 Code Insight 功能的双重扫描。Code Insight 是一款基于 Gemini 大语言模型的安全分析工具。被判定为恶意的 Skill 将立即被禁止下载,而标记为可疑的内容则会附上醒目的警告标签。
这项合作的背景,在于应对 AI Agent 领域特有的基础性安全问题。与传统软件按预设代码路径执行不同,AI Agent 通过自然语言进行理解,并自主决策下一步动作。这种特性催生了新型攻击面——攻击者可能直接利用语言本身来操纵 Agent 的行为。OpenClaw 团队在公告中直言不讳:“我们已经看到了攻击者试图利用 AI Agent 平台的实际案例,我们不会坐视问题扩大。”
作为扩展 Agent 能力的模块,Skill 通常被赋予访问用户工具或数据的权限,这本身就意味着显著的风险。一旦 Skill 被恶意篡改或植入后门,便可能导致敏感信息外泄、执行未经授权的指令,甚至从外部下载恶意载荷。
八步安全检测机制

技术实现与深度行为分析
具体到技术层面,当开发者向 ClawHub 发布一个 Skill 时,平台会将其代码打包为一个确定性的软件包,并计算其 SHA-256 哈希值。这个唯一的“数字指纹”首先会与 VirusTotal 庞大的威胁情报库进行比对。
如果在数据库中没有找到相应的分析记录,系统会将整个软件包上传,进行更深入的扫描。这正是 OpenClaw 方案的独特之处:它不仅仅依赖哈希匹配。VirusTotal 的 Code Insight 功能会利用 Gemini 模型,对整个 Skill 包进行以安全为导向的行为分析。它重点关注代码实际上会执行什么动作,而不仅仅是静态的特征签名。
系统会评估 Skill 是否存在潜在的高风险行为,例如:下载外部代码、访问敏感数据、执行网络操作,或是嵌入可能诱导 Agent 产生不安全行为的指令。获得“良性”评定的 Skill 将自动通过审核,而被标记为恶意或可疑的内容则会面临拦截或被添加警示。更重要的是,所有已上线的 Skill 都会每日进行重新扫描,以应对可能随时间演变的安全威胁。
这一方案比 Hugging Face 等平台现有的简单 VirusTotal 集成更为深入。后者主要基于哈希值查询,而 OpenClaw 的方案则实现了对完整 Skill 包的全面行为分析。
行业领先的安全实践
此次合作只是 OpenClaw 综合性安全计划的开始。该公司表示将发布面向 AI Agent 生态系统的正式威胁模型、公开安全路线图、完整代码库审计详情,以及包含明确服务等级协议(SLA)的安全事件上报流程。
OpenClaw 团队也冷静地指出,自动化扫描仅是纵深防御体系中的一层,远非完整的解决方案。一些精心构造的提示词注入攻击或自然语言操纵手段,可能仍会绕过基于特征的检测。公告中强调:“安全依靠纵深防御。这仅是其中一层,更多防护措施即将推出。”
对于 Skill 发布者而言,扫描在发布时自动执行,无需额外操作。开发者可以直接从 Skill 的详情页面查看扫描结果及指向 VirusTotal 详细报告的链接。团队预计初期可能会出现少量误报,并已设立 security@openclaw.ai 邮箱来受理相关的复核请求。
ClawHub 的用户在浏览 Skill 时也能清晰地看到其扫描状态。不过,OpenClaw 也提醒用户,扫描结果正常并不意味着绝对安全。公司建议用户仔细审阅 Skill 的权限说明、优先选择可信的发布者,并对任何可疑行为保持警惕并及时上报。
此次合作使 OpenClaw 成为首家实施此类全面自动化安全扫描的 AI Agent 平台,为整个行业应对这一新型计算范式下的独特安全挑战,树立了一个重要的先例。这对于构建一个可信、可靠的 AI Agent 生态系统至关重要。如果你对 AI 安全或 Agent 技术有更多兴趣,欢迎到 云栈社区 的相关板块参与讨论,获取更多前沿资讯与技术干货。
参考来源:
OpenClaw Partners with VirusTotal to Secure AI Agent Skill Marketplace
https://cybersecuritynews.com/openclaw-and-virustotal/
文章来源: FreeBuf
声明:本文涉及的技术与思路仅供安全研究交流使用,请勿用于非法或盈利目的。