近日,Anthropic旗下的王牌AI编程助手Claude Code部分源码泄露,这为开发者提供了一次深入了解其架构的难得机会。本文将手把手指导你如何在本地环境搭建这款泄露版本,并成功接入智谱AI的GLM-4等国产大模型,实现一个可用的本地AI编程助手。
项目地址为: https://github.com/claude-code-best/claude-code.git
将Git项目克隆到本地后,我们首先需要搭建其运行环境——Bun。它是一个快速的JavaScript运行时,你可以通过以下命令一键安装:
curl -fsSL https://bun.sh/install | bash
安装完成后,输入 bun --version 来验证是否安装成功。
运行测试
接下来,我们进入项目目录,进行依赖安装和初步测试。
# 安装项目依赖
bun install
# 以开发模式运行,看到版本号 888 说明启动成功
bun run dev
# 构建项目(可选)
bun run build
成功执行 bun run dev 后,终端会显示欢迎界面和版本号(Claude Code v2.1.888)。不过此时因为没有配置大模型API,程序会提示“无法连接到Anthropic服务”。这正是我们下一步要解决的问题:由于直接使用Anthropic的原生模型可能存在注册或网络访问困难,我们可以转向配置国产大模型。
配置国产大模型API(以智谱AI为例)
1. 创建API Key
- 访问智谱AI开放平台并注册账号。
- 登录后,在页面右上角点击头像,进入“API密钥”管理页面,创建一个新的API Key。
2. 配置环境变量
Claude Code 的泄露版本通过环境变量来读取配置。我们需要手动设置两个关键变量,将请求指向智谱AI的兼容接口。
打开你的终端,执行以下命令(请将你的key替换为你在上一步获取的实际API Key):
export ANTHROPIC_AUTH_TOKEN="你的key"
export ANTHROPIC_BASE_URL="https://api.bigmodel.cn/api/anthropic/v1"
请注意:这里使用的 ANTHROPIC_BASE_URL 是智谱AI为兼容Anthropic API格式提供的特定端点,确保请求能够被正确转发和处理。
初始化配置
设置好环境变量后,再次运行 bun run dev 进行初始化配置。这个过程会有一个交互式引导:
- 选择终端主题配色:通常会有一个菜单让你选择深色/浅色等模式,根据喜好选择或直接按回车使用默认即可。
- 检测到API Key:程序会检测到你已设置的
ANTHROPIC_AUTH_TOKEN,并询问是否使用它。选择“是”。
- 安全提示:阅读并确认相关的安全提示,了解AI助手可能出错等注意事项。
- 信任工作区:程序会询问你是否信任当前项目目录,选择“是,我信任此文件夹”以继续。
完成以上步骤后,你将看到Claude Code的主界面,并且模型信息处会显示当前使用的模型(例如glm-4),这标志着配置已成功完成。
功能测试:创建一个简单的爬虫项目
现在,让我们测试一下配置好的AI编程助手是否能正常工作。你可以向它提出一个具体的编程任务,例如:
“请帮我在当前目录下创建一个爬虫项目,用于爬取某个公开网站的数据,并保存为Excel文件。”
Claude Code 会理解你的需求,开始分析目标网站结构,并自动生成相应的代码文件(如Python脚本、HTML解析逻辑、数据存储代码等)。它会执行命令来验证网站可访问性,并引导你完成整个项目的创建过程。通过这个源码分析与实战,你能更直观地感受到AI编程助手的协作能力。
总结与注意事项
通过本次对Claude Code泄露版的搭建和配置,我们不仅成功在本地运行了一个强大的AI编程工具,还实践了将其后端替换为国产大模型的方法。这对于学习现代AI应用架构、理解模型API调用具有很高的参考价值。
几个关键点提醒:
- 源码备份:鉴于项目源自泄露,且后续可能发生变更,建议妥善保存你当前使用的这份源码。
- 安全须知:始终牢记,AI生成的代码可能存在错误或安全隐患,务必仔细审查后再于生产环境使用。你可以通过技术文档了解更多安全编程实践。
- 环境变量:本文配置方式为临时环境变量,重启终端后会失效。如需持久化,请将
export 命令写入你的Shell配置文件(如 ~/.bashrc 或 ~/.zshrc)。
- 模型选择:除了GLM-4,理论上任何提供与Anthropic API兼容接口的模型服务都可以通过类似方式接入,这为AIGC应用的开发提供了灵活性。
这次实践是一次宝贵的技术探索。如果你对AI编程助手、大模型集成等话题有更多想法,欢迎在云栈社区与广大开发者交流讨论。