找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3000

积分

0

好友

402

主题
发表于 14 小时前 | 查看: 21| 回复: 0

OpenClaw 龙虾🦞开启了智能体自主运行的时代,而近期备受关注的 Hermes,则凭借其自动生成技能、持久记忆与自进化闭环的能力,被社区视为 OpenClaw 的 “高配”。它的出现,也让行业再次达成共识:能自我进化的Agent,才是下一代智能体的核心范式

有趣的是,JiuwenClaw 与 Hermes Agent 在核心理念上不谋而合。作为基于 openJiuwen 开发的 AI Agent,JiuwenClaw 的核心优势之一,正是 Skills自演进和上下文自演进能力。openJiuwen 作为一个开源智能体框架,在设计之初便将自演进作为核心架构目标,原生支持 Agent 全链路自主进化,让智能体在持续使用中不断积累经验、迭代技能。

JiuwenClaw Logo与品牌口号

项目地址:

一、JiuwenClaw自演进亮点

在 Hermes 引爆的 Agent 自进化热潮之际,JiuwenClaw 的自主演进能力脱颖而出。其核心在于,无需复杂操作与手动优化,便能实现 “越用越好用、越用越懂你” 的智能化体验。

用户只需在设置中打开自演进开关,JiuwenClaw 便会在后台静默运行:一边协助完成任务,一边持续观察执行过程和对话内容。一旦发现问题,系统会自动分析根因、生成改进建议,并通过审批窗口交由用户确认。整个闭环均为自动触发,无需人工干预。

JiuwenClaw AI ASSISTANT 配置界面

1.1 JiuwenClaw Skills自演进

Hermes 的 Skill 自演进机制是由大模型自动识别执行流程并转换为技能,后续更新也由模型判断并直接覆盖原始文件。这种方式可能存在模型识别不准确、改写失误、原始技能被覆盖后无法回退等问题,且缺乏用户审核环节。

相比之下,JiuwenClaw 采用了 演进补丁、信号检测、演进审批 等机制。它支持基于执行异常、用户反馈的 Skills 自演进,同时确保演进过程可追溯、可回滚。所有演进操作均需用户审批,在保证安全性的同时,也让演进过程更可控、更贴合实际需求。

1.1.1 演进补丁:改进经验独立存储,不改动原始 Skill

最直接的改进方式或许是直接修改 Skill 文件,但这也带来了问题:改错了怎么办?原始能力被覆盖后,回退将变得困难。

JiuwenClaw 采用的 “演进补丁”机制 解决了这一痛点:

  • 不覆盖原始 Skill:演进内容以独立的经验条目附加到 Skill 上,原有能力定义保持完整。
  • 可追溯、可回滚:每条经验都记录了触发来源和上下文,发现问题可随时退回。
  • 版本更新无忧:演进补丁独立于 Skill 本体存储。当 Skill 从社区升级新版本时,已积累的演进经验可以无缝沿用,避免了版本冲突。

1.1.2 信号检测:两套机制,自动感知“哪里需要改”

Agent 如何知道自己哪里做得不好?JiuwenClaw 设计了两套显式的信号检测机制:

执行异常检测:工具调用超时、接口报错、代码异常中断——任何明确的执行失败都会被自动捕获,并归因到当前 Skill。
用户纠错检测:当用户表达“不对”、“换个方式”、“你理解错了”时,系统会识别为有效的负反馈信号。

这两套机制共同确保:无论是系统层面的客观错误还是用户层面的主观纠正,都能被可靠捕获,为后续的精准改进提供依据。

1.1.3 演进审批:Agent 建议改进,用户确认生效

与某些直接写入文件的机制不同,JiuwenClaw 在生成演进建议后,会弹出 演进审批窗口,清晰展示:

  • 改了什么:具体的改进内容。
  • 为什么改:源于哪一次工具报错或哪一句用户反馈。
  • 改到哪里:目标 Skill 的具体位置。

用户可自行判断,点击确认或驳回。Agent 可以自主建议改进,但最终决定权始终掌握在用户手中

Skill演进审批流程界面

1.1.4 信号捕获后具体怎么改?

系统根据捕获的信号类型,生成针对性的改进内容:

信号类型 改进方式 写入位置
执行异常 排障建议 (Troubleshooting) Skill 的已知问题与处理方式
用户纠错 示例补充 (Examples) Skill 的正确用法示例
脚本工件 代码沉淀 (Scripts) Skill 的可复用脚本库

举个例子:某个依赖库更新导致 API 变动,Skill 中仍在使用的旧属性名引发持续报错。JiuwenClaw 自动捕获异常,分析出根因是属性名变更,并生成了包含新属性名和调用方式的排障建议。经用户确认后,这条经验被写入 Skill,从而避免未来再犯同样的错误。

每一条经验都有明确的触发场景,是基于具体失败的精准改进,而非泛泛的优化。

1.2 JiuwenClaw 上下文自演进

除了 Skills 自演进,JiuwenClaw 还支持强大的上下文自演进能力,通过 在线经验增强推理离线经验总结 的双层机制,形成一个不断自我强化的数据飞轮。

首先,需要在配置文件中启用上下文自演进能力:

上下文自演进配置文件示例

1.2.1 在线增强推理:经验驱动的实时增强 Agent 推理

上下文自演进采用 经验召回 + 增强推理 的双层在线机制:

经验召回:当用户发起请求时,系统会首先从经验库中召回 Top-K 条相关经验。召回过程综合考量经验的有效性(是否管用)、相关性(与当前任务是否匹配)和时效性(是否过时),确保每一条被召回的经验都有据可依。

增强推理:Agent 获取相关经验后,会结合当前任务进行推理拓展,并自适应选择两种模式:

  • 串行式拓展:经验按顺序逐条应用,适合步骤依赖强的任务(例如“先登录、再查询、后处理”)。
  • 并行式拓展:多条经验同时生效,适合相互独立的增强(例如同时参考错误处理指南和性能优化建议)。

这种机制让每一次推理都能“站在经验的肩膀上”。

1.2.2 离线总结经验:从执行轨迹中抽象可复用经验

在线推理是“使用经验”,而离线阶段则负责“产生好经验”。

经验总结:Agent 每次执行都会留下完整的轨迹记录(包括工具调用、参数、结果、报错、用户反馈等)。离线系统会自动扫描这些轨迹,从中抽取出可复用的模式,并将其提炼为“如果遇到 X 场景,应该做 Y”的结构化经验。

经验管理:经验的整个生命周期实现自动化管理:

  • 创建:遇到新任务、新场景时,自动创建新的经验条目。
  • 更新:被使用过的经验会根据执行结果更新其有效性评分。效果好的加分,出问题的降权。
  • 删除与压缩:长期未被命中的经验,要么被压缩提炼成更精炼的版本,要么被直接删除。这确保了经验库始终保持“轻量且精准”,而非无限膨胀。

1.2.3 在线与离线配合:形成自演进数据飞轮

在线推理与离线总结并非孤立模块,它们共同构成了一条完整的自我增强闭环:

用户Query → 经验召回 → 增强推理 → 执行轨迹 → 经验总结 → 经验管理 → 下一次召回
  1. 执行任务(在线):用户发起请求,系统召回经验并辅助 Agent 完成任务。
  2. 沉淀经验(离线):任务结束后,系统分析执行轨迹,总结成败,提炼出新的结构化经验存入经验库。
  3. 反馈增强(在线):当再次遇到类似任务时,系统会优先召回这些新经验,让 Agent 的表现更稳定、更出色。

这个闭环每运转一次,Agent 处理同类任务的能力就增强一分。这正是上下文自演进的核心价值:Agent 的智能,在每一次实践中悄然生长。

二、核心支撑:openJiuwen原生自演进架构

JiuwenClaw 的 Skills 自演进和上下文自演进能力,其背后是 openJiuwen 开源智能体框架的强力支撑。该框架以自演进为核心设计目标,为上层应用的自主进化提供了坚实的技术基础。

构建面向Agent多参数的自演进能力架构图

2.1 多维度演进对象:Operator

Agent 的行为由一系列参数决定,例如系统提示词、工具描述、Skill 内容、记忆策略等。openJiuwen 使用 Operator(自演进算子) 来统一抽象这些“可优化参数”。每个 Operator 都具备读取当前值、接受更新、持久化生效的标准能力。这意味着,演进算法无需关心具体优化的是哪个维度的参数,可以使用同一套流程进行优化。

当前框架支持的主要 Operator 维度包括:

Operator 类型 可演进参数 演进目标
LLM 调用 系统提示词 / 用户提示词 让推理更精准
工具调用 工具列表 / 工具描述 让 Agent 更懂选工具、用工具
上下文调用 经验 / 记忆 积累并复用长期知识
Skills 调用 Skill / 行为规范 让技能随使用持续改进

JiuwenClaw 的 Skills 自演进,正是这套框架在 Skills 维度上的产品化落地。得益于这种设计,新增一个演进维度只需实现对应的 Operator,核心的演进算法便可复用,实现了框架的通用性与可扩展性。

2.2 轨迹管理:一次采集,多路复用

自演进的前提是完整记录 Agent 的行为。openJiuwen 设计了统一的 轨迹体系(Trajectory),自动将 Agent 执行过程中的每一步(LLM 推理、工具调用、Skill 执行)采集为结构化的轨迹记录。

关键之处在于,同一条轨迹可以同时服务于多个下游优化路径

  • 在线经验演进(信号检测 → Skill 改进)
  • 离线提示词优化(评测 → 文本梯度 → 提示词调整)
  • 强化学习训练(轨迹 → 奖励打分 → 模型优化)

这实现了 “一次采集,多路复用”,极大地提升了数据利用效率和系统整体性。

2.3 在线 + 离线双模优化

openJiuwen 框架同时支持两条优化路径,以适应不同场景:

  • 在线优化:Agent 在真实使用中“边跑边学”。每一次交互都可能产生演进信号(如工具报错、用户纠正),系统实时捕获、生成改进建议,经审批后立即生效。JiuwenClaw 的 Skills 自演进就是典型的在线优化路径。
  • 离线优化:针对已有的评测数据集,批量运行 Agent、进行系统化评分、并自动生成参数更新。这种方式适合在版本迭代时,对提示词、工具描述等参数进行集中调优,从而实现性能的全面提升。

2.4 多维度演进算法

针对不同的演进维度和场景,openJiuwen 提供了专门的优化算法:

  • 提示词优化:采用“文本梯度”机制,从失败轨迹中提取方向性更新信号,实现提示词的自动化、非随机持续优化。
  • 工具优化:通过 Self-Play 机制,让 Agent 主动探索工具的使用边界,并从真实调用反馈中自动修正工具描述,使其更准确。
  • 上下文优化:将成功的执行经验提炼为可复用的长期记忆,本质上是一种高效的经验学习与知识管理机制。
  • Skills 优化:从真实使用中的异常和用户反馈中提取经验,以演进补丁的形式持续改进 Skill,让技能越用越强。

由此可见,JiuwenClaw 不仅仅是一个“能自我改进 Skill 的 Agent”,其背后是一整套面向 Agent 全链路自主演进的、系统化的技术体系。

写在最后

Hermes 的流行已经给出了明确答案:“自进化”是 AI Agent 未来发展的关键方向

JiuwenClaw 不仅呼应了行业对自进化 Agent 的核心需求,更依托于 openJiuwen 原生的自演进架构,将 Skills 和上下文自演进能力真正落地,转化为用户可感知的“越用越好”的体验。随着底层框架的持续迭代与应用能力的不断深化,这种以实践驱动成长的技术范式,必将为智能体的自主进化之路提供更多有价值的参考。

未来,每一次与智能体的交互,都可能成为它成长的新起点,最终实现“懂你所想,自主演进”的愿景。对这类前沿技术实践感兴趣的开发者,不妨持续关注 云栈社区 上的相关讨论与分享。

立即体验




上一篇:XChat 即时通讯软件发布:无广告追踪、端到端加密,预计2026年4月上线
下一篇:当我们谈论“中年危机”,是否意味着感知与记忆的双重停滞?
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-14 19:37 , Processed in 0.813777 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表