对于使用 OpenClaw 这类智能体进行日常工作的开发者而言,除了安全性,最令人关注的恐怕就是 Token 消耗了。毕竟,每次交互的成本都与此直接相关。
最近在 GitHub 上发现了一个名为 qmd 的项目,它给我带来了最直观的收益:有效降低了 Token 开销。在将其接入我的 OpenClaw 工作流后,日常运行下来的成本节省了惊人的 90% 以上。
这个项目在 开源实战 社区里也引发了不少讨论。那么,它究竟是如何做到的呢?
qmd 的核心设计思路
qmd 的设计理念非常清晰务实。本质上,它是一个面向 Markdown 笔记、会议纪要、知识库和文档目录的本地文档搜索引擎。它集成了 BM25 全文检索、向量语义检索以及 LLM rerank 技术,并且整套流程都可以在本地环境中运行,无需依赖外部 API,堪称是为智能体工作流程量身定制的工具。
其真正厉害之处,在于它重构了智能体的记忆管理机制。传统的做法往往是将大量上下文材料一股脑地塞给模型,导致 Token 占用居高不下。而 qmd 则将其转变为 “按需检索、按需返回” 的模式。
具体流程是:先建立文档集合(collection),然后向其中添加上下文资料。当智能体需要信息时,通过 query、get、multi_get 等方式进行精确检索。这样一来,模型看到的就不再是混杂无序的原始材料,而是经过筛选、与当前任务高度相关的有效信息片段,从而大幅减少了需要处理的文本量。
如何开始使用?
使用起来非常简单。
项目地址是:https://github.com/tobi/qmd
你只需要将这个 GitHub 仓库的链接交给你的 OpenClaw 智能体,让它自行理解并完成安装和部署即可。这种让智能体自主处理部署任务的方式,本身就非常符合智能体应用的范式和在 云栈社区 中倡导的自动化精神。
总结来说,如果你正在为 OpenClaw 或其他类似智能体的高额 Token 成本而烦恼,qmd 提供了一种轻量、高效且私有的解决方案。通过将“全量推送”改为“精准检索”,它能帮助你显著优化资源利用,让智能体工作流运行得更经济、更高效。
|