当前位置:   article > 正文

Llama 3 五一超级课堂 笔记 ==> 第二节、Llama 3 微调个人小助手认知(XTuner 版)

Llama 3 五一超级课堂 笔记 ==> 第二节、Llama 3 微调个人小助手认知(XTuner 版)

上一节已经完成了本地 web demo 的部署,我们继续使用上一节弄好的环境,使用XTuner 微调 Llama3

自我认知训练数据集准备

修改脚本
class-2-2000-1.png
运行脚本

cd ~/Llama3-Tutorial
python tools/gdata.py 
  • 1
  • 2

查看数据集
class-2-2000-2.png

XTuner配置文件准备

老师为我们准备好了配置文件,configs/assistant/llama3_8b_instruct_qlora_assistant.py,直接用。嗨嗨嗨

训练模型

cd ~/Llama3-Tutorial

# 开始训练,使用 deepspeed 加速,A100 40G显存 耗时24分钟
xtuner train configs/assistant/llama3_8b_instruct_qlora_assistant.py --work-dir /root/llama3_pth

# Adapter PTH 转 HF 格式
xtuner convert pth_to_hf /root/llama3_pth/llama3_8b_instruct_qlora_assistant.py \
  /root/llama3_pth/iter_500.pth \
  /root/llama3_hf_adapter

# 模型合并
export MKL_SERVICE_FORCE_INTEL=1
xtuner convert merge /root/model/Meta-Llama-3-8B-Instruct \
  /root/llama3_hf_adapter\
  /root/llama3_hf_merged
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

上面是老师提供的命令,我做了一些小修改如下:
开始训练
class-2-2000-3.png
Adapter PTH 转 HF 格式
class-2-2000-4.png
模型合并class-2-2000-5.png

推理验证

streamlit run ~/Llama3-Tutorial/tools/internstudio_web_demo.py \
  /root/llama3_hf_merged
  • 1
  • 2

同样的,我们也要小小修改一下
class-2-2000-6.png

效果展示

class-2-1.jpg

我好像训练出来个笨蛋
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/648642

推荐阅读
相关标签