一、简介
OpenClaw 是当前备受关注的、能够理解指令并执行任务的 AI 智能体框架,可应用于办公自动化、开发辅助、智能家居控制等多种场景。
然而,使用公共 AI 模型的 Token 消耗巨大。近期阿里开源的 Qwen3.5 系列模型在能力上实现了显著跨越,其中 Qwen3.5-27B 稠密模型在各项基准评估中表现优异。因此,本文将实践结合 OpenClaw、私有化部署的 Qwen3.5-27B 模型以及飞书聊天接入,构建一个完全运行在私域环境中的智能助手。
本文涵盖 本地部署 Qwen3.5-27B 模型、OpenClaw 本地部署、接入飞书机器人 等核心步骤,并在最后提供 OpenClaw 的卸载方式。
二、本地部署 Qwen3.5-27B 模型
部署采用 vLLM 推理引擎,主要依赖版本如下:
vllm==0.16.1rc1.dev37+g4fec53cfc
torch==2.10.0+cu129
torchvision==0.25.0+cu129
transformers==4.57.6
modelscope==1.34.0
2.1 下载模型
这里使用 modelscope 快速将模型下载到本地:
modelscope download --model="Qwen/Qwen3.5-27B" --local_dir Qwen3.5-27B
下载完成后,在目标目录下可以看到模型文件列表。
2.2 使用 vLLM 启动 API 服务
export CUDA_VISIBLE_DEVICES=0,1
vllm serve "Qwen3.5-27B" \
--host 0.0.0.0 \
--port 8000 \
--dtype bfloat16 \
--tensor-parallel-size 2 \
--cpu-offload-gb 0 \
--gpu-memory-utilization 0.8 \
--api-key token-abc123 \
--enable-prefix-caching \
--reasoning-parser qwen3 \
--enable-auto-tool-choice \
--tool-call-parser qwen3_coder \
--trust-remote-code
关键参数说明:
| 参数 |
说明 |
export CUDA_VISIBLE_DEVICES=0,1 |
指定使用的 GPU 设备,根据实际情况选择 |
dtype |
数据类型,bfloat16 为16位浮点数,适合 NVIDIA A100 等设备 |
tensor-parallel-size |
Tensor 并行数量,在多 GPU 分布式推理时使用,建议与 GPU 数量一致 |
cpu-offload-gb |
允许将部分模型权重卸载到 CPU 内存中(单位 GB),用于模拟 GPU 内存扩展。若模型大于显存可设置此参数,但推理速度会下降 |
gpu-memory-utilization |
设置 GPU 内存利用率的上限 |
api-key |
API 认证密钥 |
enable-prefix-caching |
启用前缀缓存以减少重复计算 |
reasoning-parser |
指定推理解析器 |
enable-auto-tool-choice |
启用自动工具选择 |
tool-call-parser |
工具调用解析器 |
服务启动成功后,终端会显示 VLLM 引擎初始化、API服务器启动及支持的路由列表等信息。
显存占用情况可通过 nvidia-smi 命令查看,部署 Qwen3.5-27B 模型通常需要较大的显存。
2.3 查看模型
vLLM 默认提供 OpenAI 兼容的 API 接口。启动后,可通过 /v1/models 接口查看模型列表:
curl http://127.0.0.1:8000/v1/models -H "Authorization: Bearer token-abc123"
2.4 Chat 交互测试
使用 curl 命令测试模型聊天功能:
curl http://127.0.0.1:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer token-abc123" \
-d '{
"model": "Qwen3.5-27B",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "你是谁,你认识小毕超吗?"}
],
"chat_template_kwargs": {"enable_thinking": false}
}'
三、OpenClaw 本地部署
OpenClaw 的中文介绍文档地址:
https://openclawcn.com/docs/start/
安装前请确保已部署 Node.js 环境,版本要求 Node >=22。
3.1 安装 OpenClaw
官方版本:
npm install -g openclaw@latest --registry=https://registry.npmmirror.com
汉化版本(可选):
npm install -g @qingchencloud/openclaw-zh@latest --registry=https://registry.npmmirror.com
本文以官方版本为例。安装过程可能会显示一些弃用警告,属于正常现象。
验证安装:
openclaw --version
查看帮助信息:
openclaw --help
3.2 初始化配置
建议后续操作在 PowerShell 中以管理员身份运行。
首先,临时放行当前窗口的脚本执行限制:
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
然后开始初始化配置向导:
openclaw onboard
运行命令后,会引导你完成以下配置:
- 安全风险提示:选择
Yes。
- 配置模式:选择
QuickStart(快速开始)。
- 选择模型供应商:本次使用私有化部署的模型,因此选择
vLLM (Local/self-hosted OpenAI-compatible)。
- 填写模型信息:依次填入之前部署的 vLLM 服务地址、API Key 和模型名称。
- vLLM base URL:
http://127.0.0.1:8000/v1
- vLLM API key:
token-abc123
- vLLM model:
Qwen3.5-27B
- 设置默认模型:选择保持当前配置的模型
vllm/Qwen3.5-27B 作为默认模型。
- 选择渠道:后续会绑定飞书机器人,此处可先选择
Skip for now,后面通过修改配置的方式添加。
- 搜索供应商:可根据需求配置,此处选择
Skip for now。
- 配置 Skills:可选择
No,后续可在 UI 界面设置。
- 配置 Hooks:可选择跳过。
配置完成后,系统会自动执行脚本启动 Gateway 网关,并尝试在浏览器中打开 Web UI 控制台。
如果浏览器未自动打开或页面无法访问,可在控制台检查网关状态:
openclaw gateway status
如果网关未启动,可使用以下命令重启:
openclaw gateway restart
然后重新尝试访问 Web UI 页面。
3.3 交互测试
在 OpenClaw 提供的 Web UI 页面中,可以直接与 AI 进行对话交互。你可以为助手设定名称、风格和表情符号,完成初步的“身份档案”配置。至此,一个基于本地大模型的 AI 智能体已可独立运行。
四、接入飞书机器人
为了更方便地与助手交互,我们将其接入飞书聊天机器人。
4.1 创建飞书机器人应用
- 访问飞书开放平台。
- 点击“创建企业自建应用”,填写应用名称(如“小龙虾”)和描述。
- 在“应用能力”中,为应用添加“机器人”能力。
- 在“权限管理”中,为机器人开通必要的通讯权限(如
im:message等)。
- 在“事件与回调”中,订阅“接收消息 v2.0 (im.message.receive_v1)”事件,使机器人能够接收用户消息。
- 在“版本管理与发布”中,创建新版本(如 1.0.0),填写更新说明,并提交发布申请。提交后需企业管理员审核通过,应用方可上线。
- 应用审核通过后,在飞书客户端中即可找到该机器人。
- 在飞书开放平台的应用“凭证与基础信息”页面,记录下
App ID 和 App Secret,后续 OpenClaw 集成时需要。
4.2 OpenClaw 集成飞书机器人
安装飞书插件:
OpenClaw 通过插件扩展支持不同渠道,需要先安装飞书插件。
openclaw plugins install @mlheng-clawd/feishu
配置飞书渠道:
使用配置向导添加飞书渠道。
openclaw config
在配置菜单中选择 Channels,然后选择 Feishu/Lark (飞书)。根据提示,填入从飞书开放平台获取的 App ID 和 App Secret。
后续配置选项包括:
- 连接方式:选择
WebSockets (default)。
- Domain:根据地区选择,例如
Feishu (feishu.cn) - China。
- 群聊策略:例如
Open - respond in all groups (requires mention)(在所有群聊中响应,但需要@机器人)。
- 私聊策略:例如
Open (public inbound DMs)。
配置完成后,选择 Finished (Done) 退出向导。
重启 Gateway 使配置生效:
openclaw gateway restart
4.3 在飞书中测试交互
配置完成后,即可在飞书 App 中与刚刚创建的机器人对话。你可以直接发送消息,机器人会调用后端部署的 Qwen3.5-27B 模型进行回复。通过飞书,你可以方便地远程给助手下达指令,例如查询信息、操作文件等。
五、OpenClaw 常用命令
以下是一些常用的 OpenClaw 管理命令:
| 命令 |
说明 |
openclaw |
启动 |
openclaw onboard |
初始化配置向导 |
openclaw dashboard |
打开 Web 控制台 |
openclaw config |
进入交互式配置向导 |
openclaw skills |
管理技能 |
openclaw --help |
查看帮助 |
openclaw gateway run |
前台运行网关 |
openclaw gateway start |
后台启动网关 |
openclaw gateway stop |
停止网关 |
openclaw gateway restart |
重启网关 |
openclaw gateway status |
查看网关状态 |
openclaw gateway install |
设置为开机自启 |
六、卸载 OpenClaw
如果不再需要,可以通过以下步骤卸载 OpenClaw:
- 停止 Gateway 服务:
openclaw gateway stop
- 卸载 OpenClaw npm 包:
npm remove -g openclaw
- (可选)删除 OpenClaw 的配置文件和数据目录,通常位于用户主目录下的
.openclaw 文件夹。
通过以上步骤,我们完成了一个从本地大模型部署到 AI 智能体框架集成,再到企业级聊天应用接入的完整实践。这种方案将前沿的人工智能能力置于私域环境中,兼顾了性能、安全与使用的便利性,为构建企业内部自动化助手提供了可行路径。技术探索永无止境,更多关于开源实战项目的讨论,欢迎来到云栈社区交流分享。