找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

216

积分

0

好友

30

主题
发表于 前天 03:07 | 查看: 13| 回复: 0

一、Llama-factory安装

  1. 从GitHub下载最新版本的llama-factory代码包

  2. 在GPU服务器上解压:

    unzip Llama-factory-main.zip
  3. 创建虚拟环境:

    conda create -n llama-factory --offline --clone base
  4. 安装llama-factory依赖包:

    cd Llama-factory-main
    pip install -e ".[torch, metrics]"
  5. 安装过程中如遇报错,可根据提示解决。例如出现导入错误时:

    yum install libsndfile
  6. 验证安装结果:

    llamafactory-cli version

    显示版本信息即表示安装成功。

二、数据集及训练模型准备

1. 数据集准备

使用测试团队提供的训练数据集,共计477条"测试用例生成脚本"数据。数据集按3:7比例分割,137条作为评估数据集,340条作为训练数据集。

将数据文件上传至./Llama-factory/data目录,修改dataset_info.json文件添加以下配置:

"testcase_pred": {
  "file_name": "data_json_0710_pred.json"
},
"testcase_train": {
  "file_name": "data_json_0710_train.json"
}

2. 训练模型准备

基础模型采用qwen3-8b,从魔搭社区下载safetensors格式模型文件,存放于服务器目录如/data/1/models/Qwen/qwen3-8b

三、基于Llama-factory WebUI进行微调

Llama-factory提供可视化WebUI界面,新手可通过以下命令启动:

cd /data/1/models/Llama-factory
CUDA_VISIBLE_DEVICES=2,3 GRADIO_SERVER_PORT=9582 llamafactory-cli webui

访问http://IP:9582即可进入操作界面。

WebUI界面

微调流程包含训练、评估、对话和导出四个核心环节。

1. 模型微调

配置步骤如下:

  1. 选择本地基础模型和训练数据集(testcase_train)
  2. 优化方案暂采用默认设置
  3. 点击预览命令查看完整训练指令
  4. 保存训练参数至本地
  5. 点击开始按钮启动微调

训练配置 优化配置 训练进度

训练过程中可实时监控进度和损失函数变化,完成后页面会显示提示信息。

2. 模型评估

切换至Evaluate&Predict页面:

  1. 选择预准备的评估数据集
  2. 启动评估任务并查看进度
  3. 获取评估结果如下:
    {
    "predict_bleu-4": 4.891540000000001,
    "predict_model_preparation_time": 0.0064,
    "predict_rouge-1": 7.424934285714286,
    "predict_rouge-2": 2.1897800000000003,
    "predict_rouge-l": 4.195487857142858,
    "predict_runtime": 725.8749,
    "predict_samples_per_second": 0.189,
    "predict_steps_per_second": 0.048
    }

3. 模型对话

在Chat页面执行以下操作:

  1. 选择训练完成的检查点模型
  2. 点击加载模型按钮
  3. 输入测试内容验证输出效果
  4. 观察微调后模型对特定指令的响应能力

4. 模型导出

导出步骤:

  1. 切换到Export页面
  2. 指定导出目录路径
  3. 点击开始导出合并基础模型与微调检查点
  4. 完成后在服务器目录查看完整模型文件

四、总结

通过本次实践,我们完成了基于人工智能框架Llama-factory的完整微调流程。虽然评估指标显示模型效果仍需优化,但已验证了通过Python环境进行本地模型微调的可行性,为后续深度优化奠定了实践基础。

您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区(YunPan.Plus) ( 苏ICP备2022046150号-2 )

GMT+8, 2025-12-1 13:33 , Processed in 0.092160 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2025 CloudStack.

快速回复 返回顶部 返回列表