OpenClaw 龙虾🦞开启了智能体自主运行的时代,而近期备受关注的 Hermes,则凭借其自动生成技能、持久记忆与自进化闭环的能力,被社区视为 OpenClaw 的 “高配”。它的出现,也让行业再次达成共识:能自我进化的Agent,才是下一代智能体的核心范式。
有趣的是,JiuwenClaw 与 Hermes Agent 在核心理念上不谋而合。作为基于 openJiuwen 开发的 AI Agent,JiuwenClaw 的核心优势之一,正是 Skills自演进和上下文自演进能力。openJiuwen 作为一个开源智能体框架,在设计之初便将自演进作为核心架构目标,原生支持 Agent 全链路自主进化,让智能体在持续使用中不断积累经验、迭代技能。

项目地址:
一、JiuwenClaw自演进亮点
在 Hermes 引爆的 Agent 自进化热潮之际,JiuwenClaw 的自主演进能力脱颖而出。其核心在于,无需复杂操作与手动优化,便能实现 “越用越好用、越用越懂你” 的智能化体验。
用户只需在设置中打开自演进开关,JiuwenClaw 便会在后台静默运行:一边协助完成任务,一边持续观察执行过程和对话内容。一旦发现问题,系统会自动分析根因、生成改进建议,并通过审批窗口交由用户确认。整个闭环均为自动触发,无需人工干预。

1.1 JiuwenClaw Skills自演进
Hermes 的 Skill 自演进机制是由大模型自动识别执行流程并转换为技能,后续更新也由模型判断并直接覆盖原始文件。这种方式可能存在模型识别不准确、改写失误、原始技能被覆盖后无法回退等问题,且缺乏用户审核环节。
相比之下,JiuwenClaw 采用了 演进补丁、信号检测、演进审批 等机制。它支持基于执行异常、用户反馈的 Skills 自演进,同时确保演进过程可追溯、可回滚。所有演进操作均需用户审批,在保证安全性的同时,也让演进过程更可控、更贴合实际需求。
1.1.1 演进补丁:改进经验独立存储,不改动原始 Skill
最直接的改进方式或许是直接修改 Skill 文件,但这也带来了问题:改错了怎么办?原始能力被覆盖后,回退将变得困难。
JiuwenClaw 采用的 “演进补丁”机制 解决了这一痛点:
- 不覆盖原始 Skill:演进内容以独立的经验条目附加到 Skill 上,原有能力定义保持完整。
- 可追溯、可回滚:每条经验都记录了触发来源和上下文,发现问题可随时退回。
- 版本更新无忧:演进补丁独立于 Skill 本体存储。当 Skill 从社区升级新版本时,已积累的演进经验可以无缝沿用,避免了版本冲突。
1.1.2 信号检测:两套机制,自动感知“哪里需要改”
Agent 如何知道自己哪里做得不好?JiuwenClaw 设计了两套显式的信号检测机制:
执行异常检测:工具调用超时、接口报错、代码异常中断——任何明确的执行失败都会被自动捕获,并归因到当前 Skill。
用户纠错检测:当用户表达“不对”、“换个方式”、“你理解错了”时,系统会识别为有效的负反馈信号。
这两套机制共同确保:无论是系统层面的客观错误还是用户层面的主观纠正,都能被可靠捕获,为后续的精准改进提供依据。
1.1.3 演进审批:Agent 建议改进,用户确认生效
与某些直接写入文件的机制不同,JiuwenClaw 在生成演进建议后,会弹出 演进审批窗口,清晰展示:
- 改了什么:具体的改进内容。
- 为什么改:源于哪一次工具报错或哪一句用户反馈。
- 改到哪里:目标 Skill 的具体位置。
用户可自行判断,点击确认或驳回。Agent 可以自主建议改进,但最终决定权始终掌握在用户手中。

1.1.4 信号捕获后具体怎么改?
系统根据捕获的信号类型,生成针对性的改进内容:
| 信号类型 |
改进方式 |
写入位置 |
| 执行异常 |
排障建议 (Troubleshooting) |
Skill 的已知问题与处理方式 |
| 用户纠错 |
示例补充 (Examples) |
Skill 的正确用法示例 |
| 脚本工件 |
代码沉淀 (Scripts) |
Skill 的可复用脚本库 |
举个例子:某个依赖库更新导致 API 变动,Skill 中仍在使用的旧属性名引发持续报错。JiuwenClaw 自动捕获异常,分析出根因是属性名变更,并生成了包含新属性名和调用方式的排障建议。经用户确认后,这条经验被写入 Skill,从而避免未来再犯同样的错误。
每一条经验都有明确的触发场景,是基于具体失败的精准改进,而非泛泛的优化。
1.2 JiuwenClaw 上下文自演进
除了 Skills 自演进,JiuwenClaw 还支持强大的上下文自演进能力,通过 在线经验增强推理 与 离线经验总结 的双层机制,形成一个不断自我强化的数据飞轮。
首先,需要在配置文件中启用上下文自演进能力:

1.2.1 在线增强推理:经验驱动的实时增强 Agent 推理
上下文自演进采用 经验召回 + 增强推理 的双层在线机制:
经验召回:当用户发起请求时,系统会首先从经验库中召回 Top-K 条相关经验。召回过程综合考量经验的有效性(是否管用)、相关性(与当前任务是否匹配)和时效性(是否过时),确保每一条被召回的经验都有据可依。
增强推理:Agent 获取相关经验后,会结合当前任务进行推理拓展,并自适应选择两种模式:
- 串行式拓展:经验按顺序逐条应用,适合步骤依赖强的任务(例如“先登录、再查询、后处理”)。
- 并行式拓展:多条经验同时生效,适合相互独立的增强(例如同时参考错误处理指南和性能优化建议)。
这种机制让每一次推理都能“站在经验的肩膀上”。
1.2.2 离线总结经验:从执行轨迹中抽象可复用经验
在线推理是“使用经验”,而离线阶段则负责“产生好经验”。
经验总结:Agent 每次执行都会留下完整的轨迹记录(包括工具调用、参数、结果、报错、用户反馈等)。离线系统会自动扫描这些轨迹,从中抽取出可复用的模式,并将其提炼为“如果遇到 X 场景,应该做 Y”的结构化经验。
经验管理:经验的整个生命周期实现自动化管理:
- 创建:遇到新任务、新场景时,自动创建新的经验条目。
- 更新:被使用过的经验会根据执行结果更新其有效性评分。效果好的加分,出问题的降权。
- 删除与压缩:长期未被命中的经验,要么被压缩提炼成更精炼的版本,要么被直接删除。这确保了经验库始终保持“轻量且精准”,而非无限膨胀。
1.2.3 在线与离线配合:形成自演进数据飞轮
在线推理与离线总结并非孤立模块,它们共同构成了一条完整的自我增强闭环:
用户Query → 经验召回 → 增强推理 → 执行轨迹 → 经验总结 → 经验管理 → 下一次召回
- 执行任务(在线):用户发起请求,系统召回经验并辅助 Agent 完成任务。
- 沉淀经验(离线):任务结束后,系统分析执行轨迹,总结成败,提炼出新的结构化经验存入经验库。
- 反馈增强(在线):当再次遇到类似任务时,系统会优先召回这些新经验,让 Agent 的表现更稳定、更出色。
这个闭环每运转一次,Agent 处理同类任务的能力就增强一分。这正是上下文自演进的核心价值:Agent 的智能,在每一次实践中悄然生长。
二、核心支撑:openJiuwen原生自演进架构
JiuwenClaw 的 Skills 自演进和上下文自演进能力,其背后是 openJiuwen 开源智能体框架的强力支撑。该框架以自演进为核心设计目标,为上层应用的自主进化提供了坚实的技术基础。

2.1 多维度演进对象:Operator
Agent 的行为由一系列参数决定,例如系统提示词、工具描述、Skill 内容、记忆策略等。openJiuwen 使用 Operator(自演进算子) 来统一抽象这些“可优化参数”。每个 Operator 都具备读取当前值、接受更新、持久化生效的标准能力。这意味着,演进算法无需关心具体优化的是哪个维度的参数,可以使用同一套流程进行优化。
当前框架支持的主要 Operator 维度包括:
| Operator 类型 |
可演进参数 |
演进目标 |
| LLM 调用 |
系统提示词 / 用户提示词 |
让推理更精准 |
| 工具调用 |
工具列表 / 工具描述 |
让 Agent 更懂选工具、用工具 |
| 上下文调用 |
经验 / 记忆 |
积累并复用长期知识 |
| Skills 调用 |
Skill / 行为规范 |
让技能随使用持续改进 |
JiuwenClaw 的 Skills 自演进,正是这套框架在 Skills 维度上的产品化落地。得益于这种设计,新增一个演进维度只需实现对应的 Operator,核心的演进算法便可复用,实现了框架的通用性与可扩展性。
2.2 轨迹管理:一次采集,多路复用
自演进的前提是完整记录 Agent 的行为。openJiuwen 设计了统一的 轨迹体系(Trajectory),自动将 Agent 执行过程中的每一步(LLM 推理、工具调用、Skill 执行)采集为结构化的轨迹记录。
关键之处在于,同一条轨迹可以同时服务于多个下游优化路径:
- 在线经验演进(信号检测 → Skill 改进)
- 离线提示词优化(评测 → 文本梯度 → 提示词调整)
- 强化学习训练(轨迹 → 奖励打分 → 模型优化)
这实现了 “一次采集,多路复用”,极大地提升了数据利用效率和系统整体性。
2.3 在线 + 离线双模优化
openJiuwen 框架同时支持两条优化路径,以适应不同场景:
- 在线优化:Agent 在真实使用中“边跑边学”。每一次交互都可能产生演进信号(如工具报错、用户纠正),系统实时捕获、生成改进建议,经审批后立即生效。JiuwenClaw 的 Skills 自演进就是典型的在线优化路径。
- 离线优化:针对已有的评测数据集,批量运行 Agent、进行系统化评分、并自动生成参数更新。这种方式适合在版本迭代时,对提示词、工具描述等参数进行集中调优,从而实现性能的全面提升。
2.4 多维度演进算法
针对不同的演进维度和场景,openJiuwen 提供了专门的优化算法:
- 提示词优化:采用“文本梯度”机制,从失败轨迹中提取方向性更新信号,实现提示词的自动化、非随机持续优化。
- 工具优化:通过 Self-Play 机制,让 Agent 主动探索工具的使用边界,并从真实调用反馈中自动修正工具描述,使其更准确。
- 上下文优化:将成功的执行经验提炼为可复用的长期记忆,本质上是一种高效的经验学习与知识管理机制。
- Skills 优化:从真实使用中的异常和用户反馈中提取经验,以演进补丁的形式持续改进 Skill,让技能越用越强。
由此可见,JiuwenClaw 不仅仅是一个“能自我改进 Skill 的 Agent”,其背后是一整套面向 Agent 全链路自主演进的、系统化的技术体系。
写在最后
Hermes 的流行已经给出了明确答案:“自进化”是 AI Agent 未来发展的关键方向。
JiuwenClaw 不仅呼应了行业对自进化 Agent 的核心需求,更依托于 openJiuwen 原生的自演进架构,将 Skills 和上下文自演进能力真正落地,转化为用户可感知的“越用越好”的体验。随着底层框架的持续迭代与应用能力的不断深化,这种以实践驱动成长的技术范式,必将为智能体的自主进化之路提供更多有价值的参考。
未来,每一次与智能体的交互,都可能成为它成长的新起点,最终实现“懂你所想,自主演进”的愿景。对这类前沿技术实践感兴趣的开发者,不妨持续关注 云栈社区 上的相关讨论与分享。
立即体验