赞
踩
上一节已经完成了本地 web demo 的部署,我们继续使用上一节弄好的环境,使用XTuner 微调 Llama3
修改脚本
运行脚本
cd ~/Llama3-Tutorial
python tools/gdata.py
查看数据集
老师为我们准备好了配置文件,configs/assistant/llama3_8b_instruct_qlora_assistant.py,直接用。嗨嗨嗨
cd ~/Llama3-Tutorial
# 开始训练,使用 deepspeed 加速,A100 40G显存 耗时24分钟
xtuner train configs/assistant/llama3_8b_instruct_qlora_assistant.py --work-dir /root/llama3_pth
# Adapter PTH 转 HF 格式
xtuner convert pth_to_hf /root/llama3_pth/llama3_8b_instruct_qlora_assistant.py \
/root/llama3_pth/iter_500.pth \
/root/llama3_hf_adapter
# 模型合并
export MKL_SERVICE_FORCE_INTEL=1
xtuner convert merge /root/model/Meta-Llama-3-8B-Instruct \
/root/llama3_hf_adapter\
/root/llama3_hf_merged
上面是老师提供的命令,我做了一些小修改如下:
开始训练
Adapter PTH 转 HF 格式
模型合并
streamlit run ~/Llama3-Tutorial/tools/internstudio_web_demo.py \
/root/llama3_hf_merged
同样的,我们也要小小修改一下
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。