找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3011

积分

0

好友

403

主题
发表于 前天 05:10 | 查看: 63| 回复: 0

近日,Anthropic旗下的王牌AI编程助手Claude Code部分源码泄露,这为开发者提供了一次深入了解其架构的难得机会。本文将手把手指导你如何在本地环境搭建这款泄露版本,并成功接入智谱AI的GLM-4等国产大模型,实现一个可用的本地AI编程助手。

项目地址为: https://github.com/claude-code-best/claude-code.git

将Git项目克隆到本地后,我们首先需要搭建其运行环境——Bun。它是一个快速的JavaScript运行时,你可以通过以下命令一键安装:

curl -fsSL https://bun.sh/install | bash

安装完成后,输入 bun --version 来验证是否安装成功。

运行测试

接下来,我们进入项目目录,进行依赖安装和初步测试。

# 安装项目依赖
bun install

# 以开发模式运行,看到版本号 888 说明启动成功
bun run dev

# 构建项目(可选)
bun run build

成功执行 bun run dev 后,终端会显示欢迎界面和版本号(Claude Code v2.1.888)。不过此时因为没有配置大模型API,程序会提示“无法连接到Anthropic服务”。这正是我们下一步要解决的问题:由于直接使用Anthropic的原生模型可能存在注册或网络访问困难,我们可以转向配置国产大模型。

配置国产大模型API(以智谱AI为例)

1. 创建API Key

  • 访问智谱AI开放平台并注册账号。
  • 登录后,在页面右上角点击头像,进入“API密钥”管理页面,创建一个新的API Key。

2. 配置环境变量

Claude Code 的泄露版本通过环境变量来读取配置。我们需要手动设置两个关键变量,将请求指向智谱AI的兼容接口。

打开你的终端,执行以下命令(请将你的key替换为你在上一步获取的实际API Key):

export ANTHROPIC_AUTH_TOKEN="你的key"
export ANTHROPIC_BASE_URL="https://api.bigmodel.cn/api/anthropic/v1"

请注意:这里使用的 ANTHROPIC_BASE_URL 是智谱AI为兼容Anthropic API格式提供的特定端点,确保请求能够被正确转发和处理。

初始化配置

设置好环境变量后,再次运行 bun run dev 进行初始化配置。这个过程会有一个交互式引导:

  1. 选择终端主题配色:通常会有一个菜单让你选择深色/浅色等模式,根据喜好选择或直接按回车使用默认即可。
  2. 检测到API Key:程序会检测到你已设置的 ANTHROPIC_AUTH_TOKEN,并询问是否使用它。选择“是”。
  3. 安全提示:阅读并确认相关的安全提示,了解AI助手可能出错等注意事项。
  4. 信任工作区:程序会询问你是否信任当前项目目录,选择“是,我信任此文件夹”以继续。

完成以上步骤后,你将看到Claude Code的主界面,并且模型信息处会显示当前使用的模型(例如glm-4),这标志着配置已成功完成。

功能测试:创建一个简单的爬虫项目

现在,让我们测试一下配置好的AI编程助手是否能正常工作。你可以向它提出一个具体的编程任务,例如:

“请帮我在当前目录下创建一个爬虫项目,用于爬取某个公开网站的数据,并保存为Excel文件。”

Claude Code 会理解你的需求,开始分析目标网站结构,并自动生成相应的代码文件(如Python脚本、HTML解析逻辑、数据存储代码等)。它会执行命令来验证网站可访问性,并引导你完成整个项目的创建过程。通过这个源码分析与实战,你能更直观地感受到AI编程助手的协作能力。

总结与注意事项

通过本次对Claude Code泄露版的搭建和配置,我们不仅成功在本地运行了一个强大的AI编程工具,还实践了将其后端替换为国产大模型的方法。这对于学习现代AI应用架构、理解模型API调用具有很高的参考价值。

几个关键点提醒:

  • 源码备份:鉴于项目源自泄露,且后续可能发生变更,建议妥善保存你当前使用的这份源码。
  • 安全须知:始终牢记,AI生成的代码可能存在错误或安全隐患,务必仔细审查后再于生产环境使用。你可以通过技术文档了解更多安全编程实践。
  • 环境变量:本文配置方式为临时环境变量,重启终端后会失效。如需持久化,请将 export 命令写入你的Shell配置文件(如 ~/.bashrc~/.zshrc)。
  • 模型选择:除了GLM-4,理论上任何提供与Anthropic API兼容接口的模型服务都可以通过类似方式接入,这为AIGC应用的开发提供了灵活性。

这次实践是一次宝贵的技术探索。如果你对AI编程助手、大模型集成等话题有更多想法,欢迎在云栈社区与广大开发者交流讨论。




上一篇:Claude Code源码泄露事件分析:GitHub供应链投毒与商业窃密木马防范
下一篇:Oracle与SAP的AI战略分野:从底层算力到业务流程的技术趋势分析
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-7 20:12 , Processed in 0.722332 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表