赞
踩
lora是Low-Rank Adaptation的缩写,是微软的Hu等人于2021年挂在ArXiv上(后又发表在ICLR2022上)的一篇论文《LoRA: Low-Rank Adaptation of Large Language Models》中提出的,通俗来讲,是一种降低模型可训练参数,又尽量不损失模型表现的大模型微调方法。为什么时隔两年,lora又突然火了一把呢?这一切都要感谢ChatGPT。
这里就简单介绍这么多,LORA微调系列(一):LORA和它的基本原理 - 知乎 (zhihu.com)这篇文章讲解的非常详细,有兴趣的同学可以去看一看。随着大模型的爆火,lora已经成为必不可少的工具之一了。下面就开始讲述如何在UI页面可视化的微调大模型。
ChatGLM的微调
git clone https://github.com/hiyouga/ChatGLM-Efficient-Tuning.git
Llama的微调:
git clone https://github.com/hiyouga/LLaMA-Efficient-Tuning.git
准备好数据集(json文件),放入./ChatGLM-Efficient-Tuning-main/data文件夹中
sha1sum /path/to/your/file.txt
将SHA-1哈希值添加到dataset_info.json文件中,例如:
- "alpaca_gpt4_zh": {
- "file_name": "alpaca_gpt4_data_zh.json",
- "file_sha1": "3eaa3bda364ccdd59925d7448a698256c31ef845"
- },
安装依赖:
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
运行程序:
python ./ChatGLM-Efficient-Tuning-main/src/train_web.py
UI页面:
1.修改Model Path:本地模型的地址
2.修改Fintuning method:微调方式(默认为lora)
3.选择需要训练的数据集
4.修改以下的超参数:
Learning rate:学习率(e-3~e-5),Epochs,Batchsize,Save steps
这里的Save steps是每多少步就保存一次Checkpoint文件。例如有3000个Total steps,Save steps为1000,那么就是每1000个step就保存一次Checkpoint文件,最后一共三个文件。
5.开始训练: 点击start
点击Evaluate,选择数据集,修改相关的参数,点start
点击Load model(可以实时的查看微调结果或者模型结果)
输入导出模型的地址,以及模型最大文件的大小。
Llama的微调方式和ChatGLM的微调方式一样,这里就不多赘述了。
最后,希望大家都可以炼丹成功!!!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。