在之前的几篇文章中,我们完成了OpenClaw(小龙虾)的介绍、部署、接入云端模型、连接QQ机器人,并对它的默认技能(Skills)有了一定了解。但问题也来了:测试没几下,免费的100万Tokens额度就快见底了。这让我萌生了一个想法:何不尝试接入本地模型,彻底摆脱API调用的成本与限制?
相关阅读:OpenClaw(小龙虾)介绍、部署、接入&更换模型、接入QQ机器人、技能(Skills)介绍及部署。
我的思路是选用轻量且易上手的 Ollama 来部署本地AI模型。具体的Ollama部署方法,可以参考我之前的文章《最简单的DeepSeek部署方法》。
不过,在开始之前,我必须先亮出我的测试机器配置(一台笔记本电脑)。如果你的配置低于或只是略高于这个水平,我强烈建议你直接跳过本地模型测试——因为在我的配置下,一次成功的运行都没有。当然,不信邪的朋友可以继续尝试。
- CPU:13th Gen Intel® Core™ i5-13500H
- 内存:16G(5200频率)
- 显卡:Intel® Iris® Xe Graphics(集成显卡,128M显存)
1. 部署 Ollama 并拉取模型
Ollama的安装过程很顺利。我选择了一个对硬件要求相对友好的模型进行测试:通义千问的 qwen3.5:4b。通过命令行 ollama pull qwen3.5:4b 成功拉取了模型,并用 ollama run qwen3.5:4b 进行了简单的对话测试。在纯Ollama环境下,模型能够正常响应,虽然生成Token的速度比较慢,但功能是完好的。
2. 修改 OpenClaw 配置文件接入本地模型
接下来,就是让OpenClaw使用这个本地模型。方法依然是修改其对应的JSON配置文件,然后重启服务更新配置。
关键的配置文件修改部分如下。你需要将模型提供商(provider)设置为 ollama,并正确指向本地的Ollama服务地址(默认是 http://127.0.0.1:11434),同时将Agent的默认主模型切换到Ollama下的对应模型ID。
{
meta: {
lastTouchedVersion: '2026.3.7',
lastTouchedAt: '2026-03-12T14:11:18.990Z',
},
models: {
mode: 'merge',
providers: {
ollama: {
baseUrl: 'http://127.0.0.1:11434',
apiKey: '__OPENCLAW_REDACTED__',
api: 'ollama',
models: [
{
id: 'qwen3.5:4b',
name: 'Qwen3.5 4B',
api: 'ollama',
reasoning: false,
input: [
'text',
],
cost: {
input: 0,
output: 0,
cacheRead: 0,
cacheWrite: 0,
},
contextWindow: 32000,
maxTokens: 32000,
},
],
},
},
},
agents: {
defaults: {
model: {
primary: 'ollama/qwen3.5:4b',
},
compaction: {
mode: 'safeguard',
},
timeoutSeconds: 300,
},
},
commands: {
native: 'auto',
nativeSkills: 'auto',
restart: true,
ownerDisplay: 'raw',
},
channels: {
qqbot: {
enabled: false,
},
},
gateway: {
mode: 'local',
},
plugins: {
entries: {
qqbot: {
enabled: false,
},
},
installs: {
qqbot: {
source: 'npm',
spec: '@sliverp/qqbot@latest',
installPath: 'C:\\Users\\dande\\.openclaw\\extensions\\qqbot',
version: '1.5.3',
resolvedName: '@sliverp/qqbot',
resolvedVersion: '1.5.3',
resolvedSpec: '@sliverp/qqbot@1.5.3',
integrity: 'xxxx',
shasum: 'xxx',
resolvedAt: '2026-03-08T14:34:07.657Z',
installedAt: '2026-03-08T14:34:24.209Z',
},
},
},
}
这个 JSON配置文件 清晰地定义了如何从云端模型切换到本地Ollama服务。
3. 网页与机器人测试:失败告终
配置修改完成后,我通过OpenClaw的Web界面发起测试。这时,电脑的CPU风扇立刻开始狂转,系统资源被大量占用。然而,界面始终处于“思考”状态,没有任何实质性的文本输出。
随后检查进程,发现多个ollama进程占用了极高的CPU和内存(合计约13GB),但服务似乎陷入了僵局。
我同时也尝试了通过已接入的QQ机器人进行提问,结果一样:请求发出后石沉大海,没有任何回复。
为了确认不是模型本身的问题,我再次回到命令行直接运行 ollama run qwen3.5:4b,模型虽然慢,但确实能回答。问题显然出在OpenClaw与Ollama的交互环节。
此时,通过 ollama list 命令可以看到本地已有的模型列表:
PS C:\Users\dande> ollama list
NAME ID SIZE MODIFIED
qwen3.5:4b 2a654d98e6fb 3.4 GB 3 hours ago
qwen2.5-coder:7b dae161e27b0e 4.7 GB 22 hours ago
qwen2.5:7b 845dbda0ea48 4.7 GB 25 hours ago
4. 问题分析与个人建议
这次测试以失败告终。究其原因,很可能是我的笔记本硬件(特别是集成显卡和有限的内存)无法满足OpenClaw Agent框架与本地4B模型同时运行的计算负载。OpenClaw作为一个多Agent系统,其调度和上下文管理本身需要开销,与直接命令行调用模型相比更为复杂。虽然有其他网友用更高配置的机器(尤其是拥有独立显卡的台式机)成功了,但在我的环境下此路不通。
所以,我给大家的建议是:
- 明确需求,量力而行:如果你有非常明确且持续的本地方案需求,并且本地拥有性能不错的独立显卡(例如RTX 3060 12G以上),那么可以继续深入调试Ollama与其他更大参数模型(如7B、14B)的搭配。或者,也可以考虑购买那些提供包月服务的云端API,比如阿里云百炼就有类似的套餐,成本相对可控。
- 体验为主,善用免费资源:如果只是好奇想体验OpenClaw的功能,完全可以在初期利用官方或其他平台提供的免费Tokens进行测试。体验完毕后,如果不再需要,建议妥善关闭或卸载。毕竟,一个拥有较高系统权限的AI Agent软件长期运行在本地,若管理不当,可能存在潜在风险。当然,如果你确信自己能完全掌控,那就另当别论。
这次失败的尝试也说明,在个人电脑上部署复杂的AI应用栈,硬件门槛是真实存在的。希望我的这次“踩坑”经历,能为你规划自己的AI项目时提供一些参考。关于更多AI与本地化部署的实战讨论,欢迎来云栈社区交流心得。