赞
踩
下载地址(魔塔):https://modelscope.cn/models/LLM-Research/Meta-Llama-3-8B-Instruct/files
点击下载模型,复制git命令:
git clone https://www.modelscope.cn/LLM-Research/Meta-Llama-3-8B-Instruct.git
在存放模型空白处右键,点击git bash here,下载llama3模型至本地
由于文件较大,因此该过程比较久,保持下载窗口打开,知道出现下一命令行表示下载完成。
github:hiyouga/LLaMA-Factory: Unify Efficient Fine-Tuning of 100+ LLMs (github.com)
将其下载到本地
进入LLaMA-Factory目录,在路径处输入cmd并回车进入该目录位置的终端
新建虚拟环境
conda create -n llama_factory python=3.10 -y
激活虚拟环境
conda activate llama_factory
安装依赖
pip install -e .[metrics,modelscope,qwen]
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.41.2.post2-py3-none-win_amd64.whl
安装tensorboard
pip install tensorboard
设置环境变量
Set USE MODELSCOPE HUB=1
执行代码
python src/train_web.py
若顺利,会打开如下网页(初始界面)
在“Model name”中选择“LLaMA3-8B”,将“Model path”中的路径填写Meta-Llama-3-8B-Instruct文件夹的路径
在dataset中即可选择预先准备好的数据集进行微调
以微调为中文模型举例,则在下拉选项中选择后缀为zh的数据集
点击“Start”开始微调。
1.微调训练结束之后,点击“Export”选项卡,切换到导出功能区!
2.点击“Refresh adapters”按钮,刷新lora模型,在左侧的下拉列表中选择刚刚训练好的模型!
3.在“Max shard size(GB)”中设置好每个拆分模型的最大size;
4.在“Export dir”中设置模型保存的路径;
5.点击“Export”按钮,开始导出模型(需要点时间等待);
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。