找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

2319

积分

0

好友

311

主题
发表于 5 小时前 | 查看: 3| 回复: 0

在之前的几篇文章中,我们完成了OpenClaw(小龙虾)的介绍、部署、接入云端模型、连接QQ机器人,并对它的默认技能(Skills)有了一定了解。但问题也来了:测试没几下,免费的100万Tokens额度就快见底了。这让我萌生了一个想法:何不尝试接入本地模型,彻底摆脱API调用的成本与限制?

相关阅读:OpenClaw(小龙虾)介绍部署接入&更换模型接入QQ机器人技能(Skills)介绍及部署

我的思路是选用轻量且易上手的 Ollama 来部署本地AI模型。具体的Ollama部署方法,可以参考我之前的文章《最简单的DeepSeek部署方法》。

不过,在开始之前,我必须先亮出我的测试机器配置(一台笔记本电脑)。如果你的配置低于或只是略高于这个水平,我强烈建议你直接跳过本地模型测试——因为在我的配置下,一次成功的运行都没有。当然,不信邪的朋友可以继续尝试。

  • CPU:13th Gen Intel® Core™ i5-13500H
  • 内存:16G(5200频率)
  • 显卡:Intel® Iris® Xe Graphics(集成显卡,128M显存)

1. 部署 Ollama 并拉取模型

Ollama的安装过程很顺利。我选择了一个对硬件要求相对友好的模型进行测试:通义千问的 qwen3.5:4b。通过命令行 ollama pull qwen3.5:4b 成功拉取了模型,并用 ollama run qwen3.5:4b 进行了简单的对话测试。在纯Ollama环境下,模型能够正常响应,虽然生成Token的速度比较慢,但功能是完好的。

2. 修改 OpenClaw 配置文件接入本地模型

接下来,就是让OpenClaw使用这个本地模型。方法依然是修改其对应的JSON配置文件,然后重启服务更新配置。

关键的配置文件修改部分如下。你需要将模型提供商(provider)设置为 ollama,并正确指向本地的Ollama服务地址(默认是 http://127.0.0.1:11434),同时将Agent的默认主模型切换到Ollama下的对应模型ID。

{
  meta: {
    lastTouchedVersion: '2026.3.7',
    lastTouchedAt: '2026-03-12T14:11:18.990Z',
  },
  models: {
    mode: 'merge',
    providers: {
      ollama: {
        baseUrl: 'http://127.0.0.1:11434',
        apiKey: '__OPENCLAW_REDACTED__',
        api: 'ollama',
        models: [
          {
            id: 'qwen3.5:4b',
            name: 'Qwen3.5 4B',
            api: 'ollama',
            reasoning: false,
            input: [
              'text',
            ],
            cost: {
              input: 0,
              output: 0,
              cacheRead: 0,
              cacheWrite: 0,
            },
            contextWindow: 32000,
            maxTokens: 32000,
          },
        ],
      },
    },
  },
  agents: {
    defaults: {
      model: {
        primary: 'ollama/qwen3.5:4b',
      },
      compaction: {
        mode: 'safeguard',
      },
      timeoutSeconds: 300,
    },
  },
  commands: {
    native: 'auto',
    nativeSkills: 'auto',
    restart: true,
    ownerDisplay: 'raw',
  },
  channels: {
    qqbot: {
      enabled: false,
    },
  },
  gateway: {
    mode: 'local',
  },
  plugins: {
    entries: {
      qqbot: {
        enabled: false,
      },
    },
    installs: {
      qqbot: {
        source: 'npm',
        spec: '@sliverp/qqbot@latest',
        installPath: 'C:\\Users\\dande\\.openclaw\\extensions\\qqbot',
        version: '1.5.3',
        resolvedName: '@sliverp/qqbot',
        resolvedVersion: '1.5.3',
        resolvedSpec: '@sliverp/qqbot@1.5.3',
        integrity: 'xxxx',
        shasum: 'xxx',
        resolvedAt: '2026-03-08T14:34:07.657Z',
        installedAt: '2026-03-08T14:34:24.209Z',
      },
    },
  },
}

这个 JSON配置文件 清晰地定义了如何从云端模型切换到本地Ollama服务。

3. 网页与机器人测试:失败告终

配置修改完成后,我通过OpenClaw的Web界面发起测试。这时,电脑的CPU风扇立刻开始狂转,系统资源被大量占用。然而,界面始终处于“思考”状态,没有任何实质性的文本输出。

随后检查进程,发现多个ollama进程占用了极高的CPU和内存(合计约13GB),但服务似乎陷入了僵局。

我同时也尝试了通过已接入的QQ机器人进行提问,结果一样:请求发出后石沉大海,没有任何回复。

为了确认不是模型本身的问题,我再次回到命令行直接运行 ollama run qwen3.5:4b,模型虽然慢,但确实能回答。问题显然出在OpenClaw与Ollama的交互环节。

此时,通过 ollama list 命令可以看到本地已有的模型列表:

PS C:\Users\dande> ollama list
NAME                ID              SIZE      MODIFIED
qwen3.5:4b          2a654d98e6fb    3.4 GB    3 hours ago
qwen2.5-coder:7b    dae161e27b0e    4.7 GB    22 hours ago
qwen2.5:7b          845dbda0ea48    4.7 GB    25 hours ago

4. 问题分析与个人建议

这次测试以失败告终。究其原因,很可能是我的笔记本硬件(特别是集成显卡和有限的内存)无法满足OpenClaw Agent框架与本地4B模型同时运行的计算负载。OpenClaw作为一个多Agent系统,其调度和上下文管理本身需要开销,与直接命令行调用模型相比更为复杂。虽然有其他网友用更高配置的机器(尤其是拥有独立显卡的台式机)成功了,但在我的环境下此路不通。

所以,我给大家的建议是:

  1. 明确需求,量力而行:如果你有非常明确且持续的本地方案需求,并且本地拥有性能不错的独立显卡(例如RTX 3060 12G以上),那么可以继续深入调试Ollama与其他更大参数模型(如7B、14B)的搭配。或者,也可以考虑购买那些提供包月服务的云端API,比如阿里云百炼就有类似的套餐,成本相对可控。
  2. 体验为主,善用免费资源:如果只是好奇想体验OpenClaw的功能,完全可以在初期利用官方或其他平台提供的免费Tokens进行测试。体验完毕后,如果不再需要,建议妥善关闭或卸载。毕竟,一个拥有较高系统权限的AI Agent软件长期运行在本地,若管理不当,可能存在潜在风险。当然,如果你确信自己能完全掌控,那就另当别论。

这次失败的尝试也说明,在个人电脑上部署复杂的AI应用栈,硬件门槛是真实存在的。希望我的这次“踩坑”经历,能为你规划自己的AI项目时提供一些参考。关于更多AI与本地化部署的实战讨论,欢迎来云栈社区交流心得。




上一篇:AI基建驱动DRAM需求激增,解析全球存储格局与长鑫科技的战略机遇
下一篇:原创设计与自有供应链双驱动:拼多多产业带商家如何挣脱价格“引力”
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-14 09:03 , Processed in 0.541245 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表