找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4127

积分

0

好友

536

主题
发表于 3 小时前 | 查看: 6| 回复: 0

一、简介

OpenClaw 是当前备受关注的、能够理解指令并执行任务的 AI 智能体框架,可应用于办公自动化、开发辅助、智能家居控制等多种场景。

然而,使用公共 AI 模型的 Token 消耗巨大。近期阿里开源的 Qwen3.5 系列模型在能力上实现了显著跨越,其中 Qwen3.5-27B 稠密模型在各项基准评估中表现优异。因此,本文将实践结合 OpenClaw、私有化部署的 Qwen3.5-27B 模型以及飞书聊天接入,构建一个完全运行在私域环境中的智能助手。

本文涵盖 本地部署 Qwen3.5-27B 模型OpenClaw 本地部署接入飞书机器人 等核心步骤,并在最后提供 OpenClaw 的卸载方式。

二、本地部署 Qwen3.5-27B 模型

部署采用 vLLM 推理引擎,主要依赖版本如下:

vllm==0.16.1rc1.dev37+g4fec53cfc
torch==2.10.0+cu129
torchvision==0.25.0+cu129
transformers==4.57.6
modelscope==1.34.0

2.1 下载模型

这里使用 modelscope 快速将模型下载到本地:

modelscope download --model="Qwen/Qwen3.5-27B" --local_dir Qwen3.5-27B

下载完成后,在目标目录下可以看到模型文件列表。

2.2 使用 vLLM 启动 API 服务

export CUDA_VISIBLE_DEVICES=0,1

vllm serve "Qwen3.5-27B" \
  --host 0.0.0.0 \
  --port 8000 \
  --dtype bfloat16 \
  --tensor-parallel-size 2 \
  --cpu-offload-gb 0 \
  --gpu-memory-utilization 0.8 \
  --api-key token-abc123 \
  --enable-prefix-caching \
  --reasoning-parser qwen3 \
  --enable-auto-tool-choice \
  --tool-call-parser qwen3_coder \
  --trust-remote-code

关键参数说明:

参数 说明
export CUDA_VISIBLE_DEVICES=0,1 指定使用的 GPU 设备,根据实际情况选择
dtype 数据类型,bfloat16 为16位浮点数,适合 NVIDIA A100 等设备
tensor-parallel-size Tensor 并行数量,在多 GPU 分布式推理时使用,建议与 GPU 数量一致
cpu-offload-gb 允许将部分模型权重卸载到 CPU 内存中(单位 GB),用于模拟 GPU 内存扩展。若模型大于显存可设置此参数,但推理速度会下降
gpu-memory-utilization 设置 GPU 内存利用率的上限
api-key API 认证密钥
enable-prefix-caching 启用前缀缓存以减少重复计算
reasoning-parser 指定推理解析器
enable-auto-tool-choice 启用自动工具选择
tool-call-parser 工具调用解析器

服务启动成功后,终端会显示 VLLM 引擎初始化、API服务器启动及支持的路由列表等信息。

显存占用情况可通过 nvidia-smi 命令查看,部署 Qwen3.5-27B 模型通常需要较大的显存。

2.3 查看模型

vLLM 默认提供 OpenAI 兼容的 API 接口。启动后,可通过 /v1/models 接口查看模型列表:

curl http://127.0.0.1:8000/v1/models -H "Authorization: Bearer token-abc123"

2.4 Chat 交互测试

使用 curl 命令测试模型聊天功能:

curl http://127.0.0.1:8000/v1/chat/completions \
    -H "Content-Type: application/json" \
    -H "Authorization: Bearer token-abc123" \
    -d '{
        "model": "Qwen3.5-27B",
        "messages": [
            {"role": "system", "content": "You are a helpful assistant."},
            {"role": "user", "content": "你是谁,你认识小毕超吗?"}
        ],
        "chat_template_kwargs": {"enable_thinking": false}
    }'

三、OpenClaw 本地部署

OpenClaw 的中文介绍文档地址:

https://openclawcn.com/docs/start/

安装前请确保已部署 Node.js 环境,版本要求 Node >=22

3.1 安装 OpenClaw

官方版本:

npm install -g openclaw@latest --registry=https://registry.npmmirror.com

汉化版本(可选):

npm install -g @qingchencloud/openclaw-zh@latest --registry=https://registry.npmmirror.com

本文以官方版本为例。安装过程可能会显示一些弃用警告,属于正常现象。

验证安装:

openclaw --version

查看帮助信息:

openclaw --help

3.2 初始化配置

建议后续操作在 PowerShell 中以管理员身份运行。

首先,临时放行当前窗口的脚本执行限制:

Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass

然后开始初始化配置向导:

openclaw onboard

运行命令后,会引导你完成以下配置:

  1. 安全风险提示:选择 Yes
  2. 配置模式:选择 QuickStart(快速开始)。
  3. 选择模型供应商:本次使用私有化部署的模型,因此选择 vLLM (Local/self-hosted OpenAI-compatible)
  4. 填写模型信息:依次填入之前部署的 vLLM 服务地址、API Key 和模型名称。
    • vLLM base URL: http://127.0.0.1:8000/v1
    • vLLM API key: token-abc123
    • vLLM model: Qwen3.5-27B
  5. 设置默认模型:选择保持当前配置的模型 vllm/Qwen3.5-27B 作为默认模型。
  6. 选择渠道:后续会绑定飞书机器人,此处可先选择 Skip for now,后面通过修改配置的方式添加。
  7. 搜索供应商:可根据需求配置,此处选择 Skip for now
  8. 配置 Skills:可选择 No,后续可在 UI 界面设置。
  9. 配置 Hooks:可选择跳过。

配置完成后,系统会自动执行脚本启动 Gateway 网关,并尝试在浏览器中打开 Web UI 控制台。

如果浏览器未自动打开或页面无法访问,可在控制台检查网关状态:

openclaw gateway status

如果网关未启动,可使用以下命令重启:

openclaw gateway restart

然后重新尝试访问 Web UI 页面。

3.3 交互测试

在 OpenClaw 提供的 Web UI 页面中,可以直接与 AI 进行对话交互。你可以为助手设定名称、风格和表情符号,完成初步的“身份档案”配置。至此,一个基于本地大模型的 AI 智能体已可独立运行。

四、接入飞书机器人

为了更方便地与助手交互,我们将其接入飞书聊天机器人。

4.1 创建飞书机器人应用

  1. 访问飞书开放平台
  2. 点击“创建企业自建应用”,填写应用名称(如“小龙虾”)和描述。
  3. 在“应用能力”中,为应用添加“机器人”能力。
  4. 在“权限管理”中,为机器人开通必要的通讯权限(如im:message等)。
  5. 在“事件与回调”中,订阅“接收消息 v2.0 (im.message.receive_v1)”事件,使机器人能够接收用户消息。
  6. 在“版本管理与发布”中,创建新版本(如 1.0.0),填写更新说明,并提交发布申请。提交后需企业管理员审核通过,应用方可上线。
  7. 应用审核通过后,在飞书客户端中即可找到该机器人。
  8. 在飞书开放平台的应用“凭证与基础信息”页面,记录下 App IDApp Secret,后续 OpenClaw 集成时需要。

4.2 OpenClaw 集成飞书机器人

安装飞书插件:

OpenClaw 通过插件扩展支持不同渠道,需要先安装飞书插件。

openclaw plugins install @mlheng-clawd/feishu

配置飞书渠道:

使用配置向导添加飞书渠道。

openclaw config

在配置菜单中选择 Channels,然后选择 Feishu/Lark (飞书)。根据提示,填入从飞书开放平台获取的 App IDApp Secret

后续配置选项包括:

  • 连接方式:选择 WebSockets (default)
  • Domain:根据地区选择,例如 Feishu (feishu.cn) - China
  • 群聊策略:例如 Open - respond in all groups (requires mention)(在所有群聊中响应,但需要@机器人)。
  • 私聊策略:例如 Open (public inbound DMs)

配置完成后,选择 Finished (Done) 退出向导。

重启 Gateway 使配置生效:

openclaw gateway restart

4.3 在飞书中测试交互

配置完成后,即可在飞书 App 中与刚刚创建的机器人对话。你可以直接发送消息,机器人会调用后端部署的 Qwen3.5-27B 模型进行回复。通过飞书,你可以方便地远程给助手下达指令,例如查询信息、操作文件等。

五、OpenClaw 常用命令

以下是一些常用的 OpenClaw 管理命令:

命令 说明
openclaw 启动
openclaw onboard 初始化配置向导
openclaw dashboard 打开 Web 控制台
openclaw config 进入交互式配置向导
openclaw skills 管理技能
openclaw --help 查看帮助
openclaw gateway run 前台运行网关
openclaw gateway start 后台启动网关
openclaw gateway stop 停止网关
openclaw gateway restart 重启网关
openclaw gateway status 查看网关状态
openclaw gateway install 设置为开机自启

六、卸载 OpenClaw

如果不再需要,可以通过以下步骤卸载 OpenClaw:

  1. 停止 Gateway 服务:
    openclaw gateway stop
  2. 卸载 OpenClaw npm 包:
    npm remove -g openclaw
  3. (可选)删除 OpenClaw 的配置文件和数据目录,通常位于用户主目录下的 .openclaw 文件夹。

通过以上步骤,我们完成了一个从本地大模型部署到 AI 智能体框架集成,再到企业级聊天应用接入的完整实践。这种方案将前沿的人工智能能力置于私域环境中,兼顾了性能、安全与使用的便利性,为构建企业内部自动化助手提供了可行路径。技术探索永无止境,更多关于开源实战项目的讨论,欢迎来到云栈社区交流分享。




上一篇:苹果LiTo模型详解:如何用单图实现物理级真实感的3D重建
下一篇:深度剖析Go内存管理:span, arena与page的设计思想与实现
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-22 05:52 , Processed in 0.508010 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表