
NVIDIA 近期在 Jetson AI Lab 发布了 OpenClaw(小龙虾)的专属部署教程,让用户能在 Jetson 边缘计算设备上搭建一个完全本地运行的 人工智能个人助手。整个过程无需调用任何云端 API,仅通过 WhatsApp 即可实现智能交互与设备操控。这款被昵称为“小龙虾”的 OpenClaw 并非普通聊天机器人,而是能真正“动手做事”的智能代理。结合 Jetson 的边缘算力,它为用户提供了数据私有、响应高效的本地 AI 体验。
OpenClaw 是一款开源的个人数字助手,核心优势在于 本地运行、自主可控。它能实现文件管理、网页浏览、应用控制等实操功能,并通过 WhatsApp、Discord 等社交平台接收指令。同时,它会持续记忆用户的使用习惯与偏好,适配个性化自动化需求。而 NVIDIA 的这次教程,让 Jetson 设备成为运行 OpenClaw 的理想载体,实现了边缘端智能体的完整落地。
教程地址: https://www.jetson-ai-lab.com/tutorials/openclaw
部署前置要求:专属 Jetson 设备适配,轻量准备即可上手
要在 Jetson 上部署 OpenClaw,硬件与基础配置需满足 NVIDIA 的专属适配要求。整体准备门槛较低,核心要求如下:
- 设备:仅支持 Jetson AGX Thor 或 Jetson AGX Orin,不同设备对应专属 JetPack 版本(Orin 用 JP 6、Thor 用 JP 7)。
- 存储:推荐搭配 NVMe SSD,满足本地大模型权重的存储需求。
- 账号与终端:免费的 Hugging Face 账号(用于下载模型)、安装了 WhatsApp 的手机一部。
- 核心能力:需保证模型支持 工具调用,这是 OpenClaw 实现实操功能的关键。
NVIDIA 测试发现,混合专家模型(MoE)如 Nemotron 3 Nano 30B-A3B、Qwen 3.5 35B-A3B 等,与 OpenClaw 适配性最佳,能更高效地完成指令执行。
六步快速部署:从模型服务到 WhatsApp 交互,全程本地完成
NVIDIA 将 OpenClaw 的部署流程简化为 6 个核心步骤。全程通过命令行操作,无需复杂开发能力,完成后即可实现 WhatsApp 与 Jetson 本地 AI 助手的联动。
步骤 1:通过 vLLM 部署本地大模型
这是本地运行的核心基础。先导出 Hugging Face 令牌,再根据 Jetson 设备型号(Thor/Orin)执行专属 Docker 命令,通过 vLLM 启动模型服务。同时可清理 GPU 内存缓存以保证运行效率,最后通过 curl 命令验证模型是否成功部署。
步骤 2:安装 Node.js 22+
OpenClaw 的运行依赖 Node.js 22 及以上版本。通过官方脚本一键安装后,验证版本即可完成基础环境配置。
步骤 3:全局安装 OpenClaw
使用 npm 命令全局安装最新版 OpenClaw,通过 openclaw --version 验证安装结果,完成工具本身的部署。
步骤 4:运行交互式配置向导
执行带跳过守护进程参数的配置命令,依次完成:
- vLLM 模型提供者配置:填写本地地址、自定义 API 密钥、精准输入模型名。
- WhatsApp 渠道绑定:扫描终端二维码、填写国际格式手机号。
- 同时可选择跳过技能安装与云端 API 密钥配置(纯本地部署)、勾选钩子功能实现指令自动化。
步骤 5:启动 OpenClaw 网关
通过 nohup 命令让网关后台运行并记录日志。数秒后执行状态检测命令,确认 WhatsApp 渠道已启用并连接,即完成网关启动。
步骤 6:通过 WhatsApp 与本地 AI 助手交互
OpenClaw 会作为二级设备绑定到 WhatsApp 账号。用户只需在 WhatsApp 中“给自己发消息”,即可向 Jetson 上的 OpenClaw 发送指令。首次消息因模型预热可能稍慢,后续交互响应将大幅提升。
此外,WhatsApp 内置了 /status(查看会话信息)、/new(重置会话)、/model(切换模型)等快捷命令。无需调用大模型即可快速操作,进一步提升使用体验。
Jetson 安装 OpenClaw 的核心价值:边缘算力赋能,本地优势拉满
将 OpenClaw 部署在 Jetson 设备上,并非简单的“硬件 + 软件”组合,而是 NVIDIA 边缘计算生态与智能代理工具的深度融合。它为用户带来了云端 AI 助手无法比拟的价值,核心体现在四大方面。
1. 数据 100% 私有,规避隐私与安全风险
全程本地运行意味着用户的所有指令、会话记录、设备操作数据均存储在 Jetson 设备中,无需上传至任何云端服务器。这从根源上避免了数据泄露风险。同时,教程中网关默认绑定本地主机,仅允许设备内访问。结合边缘端的隔离性,大幅降低了提示注入等网络攻击的可能性,尤其适合对数据隐私要求高的个人与小型团队。
2. 零云端 API 依赖,无调用成本且不受网络限制
与传统云端 AI 助手不同,Jetson + OpenClaw 的组合完全脱离云端 API,无需支付任何模型调用费用,实现了“一次部署,永久使用”。所有计算与指令执行均在边缘端完成,即使在无网络或弱网络环境下,依然能正常响应 WhatsApp 指令,打破了网络对 AI 助手使用场景的限制。
3. 边缘算力低延迟,设备操控更高效
Jetson 作为专业的边缘计算设备,具备强大的本地 GPU 算力,能快速完成大模型的推理与工具调用。相比云端 AI 助手的“指令上传 - 云端计算 - 结果返回”流程,本地部署的 OpenClaw 响应延迟大幅降低。对文件管理、应用控制等本地设备操作的执行效率提升尤为明显,真正实现“指令发出,即刻执行”。
4. 边缘端自动化,打造个性化本地数字分身
OpenClaw 的自动化能力与 Jetson 的边缘部署特性结合,让用户可打造专属的“本地数字分身”。既能通过 WhatsApp 远程向 Jetson 下达指令,实现设备远程操控;也能配置个性化钩子与技能,让 OpenClaw 自动完成价格监控、文件整理、日常工作流自动化等任务。同时,Jetson 设备的低功耗特性支持 OpenClaw 7×24 小时后台运行,让智能代理真正实现“全天候待命”。
5. 依托 NVIDIA 生态,适配性与扩展性拉满
NVIDIA 为 Jetson 设备定制了专属的 OpenClaw 部署脚本与模型优化方案,如针对 MoE 模型的 FlashInfer 加速、GPU 内存利用率优化等,让模型在 Jetson 上的运行效率达到最优。同时,OpenClaw 支持后续安装各类技能插件、对接更多本地工具。结合 Jetson 丰富的外设与接口,可轻松扩展至智能家居控制、工业边缘监控等更多场景,实现边缘 AI 的无限可能。
总结
NVIDIA 此次推出的 Jetson 版 OpenClaw 部署教程,不仅让边缘计算设备拥有了真正的智能代理能力,更让“本地 AI 助手”从概念落地为可实操的方案。Jetson 的边缘算力为 OpenClaw 提供了高效的运行底座,而 OpenClaw 则让 Jetson 的价值从单纯的计算硬件升级为“能听会做”的智能边缘终端。
对于用户而言,这种组合既实现了 AI 助手的自主可控与隐私保护,又摆脱了云端的束缚与成本。无论是个人日常的自动化需求,还是小型团队的边缘端智能管理,都能找到完美的适配场景。随着 OpenClaw 社区的不断发展,以及 Jetson 边缘计算生态的持续完善,本地智能代理的应用场景还将不断拓展。NVIDIA 的这一教程,无疑为边缘 AI 的普及打开了新的大门。
更多技术讨论与资源分享,欢迎访问云栈社区探索交流。