将大模型能力集成到日常办公工具中,例如飞书,可以极大地提升工作效率。你是否想过在本地Windows电脑上运行一个私有、免费且功能强大的AI助手,并通过飞书机器人直接调用?今天,我们就来详细拆解如何利用 Ollama 和 OpenClaw,一步步搭建属于你自己的本地AI办公伴侣。
这套方案能为你实现什么?
- ✅ 零成本与数据安全:模型完全在本地运行,无需支付任何API调用费用,且所有对话数据不上传云端,保障隐私安全。
- ✅ 无缝融入工作流:支持在飞书私聊或群聊中@AI机器人,实现实时问答与智能交互。
- ✅ 覆盖多种办公场景:可用于内容总结、方案撰写、代码解释、创意生成等多种任务。
- ✅ 支持主流开源模型:轻松部署和切换如 Qwen2.5、DeepSeek、Llama 3 等热门大模型。
环境准备:Windows电脑配置要求
在开始部署前,请确保你的电脑满足以下基础要求:
- 操作系统:Windows 10 或 11(64位)
- 内存:建议 ≥ 16GB RAM
- 显卡:推荐使用 NVIDIA 独立显卡(如 RTX 3060 或 4060,8GB显存体验更佳)。若无显卡,部分轻量模型可使用CPU运行,但速度较慢。
- 网络:仅在下载安装包和模型时需要网络,完成部署后可离线使用。
模型推荐:对于中文场景和流畅度平衡,推荐尝试 qwen2.5:7b 或 deepseek-r1:7b 模型。
第一步:安装 Ollama(本地大模型引擎)
Ollama 是当前最流行的本地大模型运行框架之一,它简化了模型的下载、加载和推理过程。
-
下载与安装
访问 Ollama 官方网站:https://ollama.com。
下载 Windows 版本安装程序,双击运行并按照向导完成安装。安装成功后,系统托盘(桌面右下角)会出现 Ollama 的图标。
-
拉取大语言模型
以管理员身份打开 PowerShell,执行以下命令来拉取你想要的模型。这里以 Qwen2.5 7B 模型为例:
ollama run qwen2.5:7b
首次运行会自动从服务器下载模型文件,请耐心等待。下载完成后,会自动进入交互式对话界面,输入 /bye 退出。
-
验证服务状态
打开浏览器,访问 http://localhost:11434。
如果页面能正常显示 Ollama 的服务信息,则说明本地大模型引擎已成功启动并运行。
第二步:安装 OpenClaw(飞书连接器)
OpenClaw 是一个开源项目,它像一座桥梁,能够将本地运行的模型(如通过Ollama)与飞书、钉钉等外部聊天工具连接起来。其安装依赖于 Node.js 环境。
-
安装 Node.js
前往 Node.js 官网 https://nodejs.org 下载 LTS(长期支持)版本并安装。
-
通过 npm 安装 OpenClaw
打开 PowerShell(无需管理员权限),执行以下命令进行全局安装:
npm install -g @openclaw/claw
第三步:飞书开放平台配置机器人
这是将你的应用与飞书账号体系打通的关键步骤。
-
创建应用
登录 飞书开放平台,点击“创建企业自建应用”。
填写应用名称,例如“我的本地AI助手”,然后点击创建。
-
获取应用凭证
在应用管理后台,左侧导航栏进入 “凭证与基础信息”。
在这里,你需要复制并妥善保存 App ID 和 App Secret,后续步骤会用到。
-
启用机器人能力
在左侧导航栏,点击 “添加能力” -> 选择 “机器人” -> 点击 “添加”。
-
配置机器人所需权限
机器人要能收发消息,需要获得相应的权限。在 “权限管理” 页面,搜索并开启以下核心权限:
im:message:send_as_bot (以机器人身份发送消息)
im:message.p2p_msg:readonly (获取用户发给机器人的单聊消息)
im:message.group_at_msg:readonly (获取群聊中@机器人的消息)
contact:user.base:readonly (获取用户基本信息)
-
配置事件订阅(启用长连接)
为了让机器人能实时收到消息,需要配置事件。进入 “事件与回调” -> “事件配置”。
- 在“订阅事件”中,勾选
im.message.receive_v1(接收消息v1.0)。
- 在“Encrypt Key”下方,选择 “使用长连接(WebSocket)” 作为接收事件的方式。这种方式无需公网服务器和内网穿透,最适合本地调试。
- 保存配置。
-
发布应用
前往 “应用发布” -> “创建版本” -> 填写版本号等信息后提交审核。
对于个人或企业自用应用,审核通常会在1-5分钟内自动通过。
第四步:绑定飞书与 OpenClaw
配置好飞书应用后,我们需要告诉 OpenClaw 如何连接它。
-
启动网关并绑定飞书
在 PowerShell 中执行以下命令,启动配置向导:
claw gateway
根据交互式提示进行操作:
- 选择渠道:输入
feishu。
- 输入凭证:分别粘贴之前保存的飞书
App ID 和 App Secret。
配置成功后,OpenClaw 会以后台服务形式运行,并尝试与飞书建立 WebSocket 长连接。
-
重启网关(如需)
如果对配置进行了修改,或网关未正常运行,可以使用以下命令重启:
claw restart
第五步:测试你的飞书AI机器人
激动人心的时刻到了!现在去飞书里找到你的机器人吧。
- 在飞书客户端中,搜索你创建的应用名称(如“我的本地AI助手”)。
- 在私聊窗口中发送消息,或者在任意你所在的群聊中@这个机器人。
- 如果一切配置正确,稍等片刻,你就会收到来自本地大模型的回复!
常见问题排查 (FAQ)
总结与展望
通过以上步骤,你已经成功在 Windows 本地搭建了一套由 Ollama 提供算力、OpenClaw 负责连接、飞书机器人 作为交互前端的私有化AI助手系统。这套方案成本极低,数据自主可控,非常适合对隐私安全有要求的个人开发者或中小企业内部使用。
随着开源生态的繁荣,类似 OpenClaw 这样的优秀连接器项目不断涌现,极大降低了技术集成的门槛。如果你对这类开源实战或 Node.js 后端开发感兴趣,欢迎到技术社区交流探讨。如果大家在部署过程中遇到其他问题,也欢迎在评论区留言分享。
|