赞
踩
目录
对模型全量参数进行训练。
前缀微调,在模型每一层都增加前缀,只训练这部分的参数,训练量明显小于全量微调。
基于矩阵分解的微调,假设原权重喂 W_0,我们新增一个和 W_0 一摸一样形状的矩阵 W_delta,并且对 W_delta 分解为 A 和 B,在训练过程中只训练 A 和 B 的参数,最后的权重 W = W_0 + W_delta
代码下载见:
- ### full parameter finetuning ### (need enough GPU, at least 4 A100)
- cd ptuning
- sh ds_train_finetune.sh
代码下载见:
- ### p-tuning v2 ###
- # dataset
- cd ptuning
- wget https://cloud.tsinghua.edu.cn/seafhttp/files/802c9912-2742-47c9-a0d3-18ee08d83438/AdvertiseGen.tar.gz
- tar -xvf AdvertiseGen.tar.gz
-
- # modify model path and other parameter
- sh train.sh
- ### LoRA ###
- git clone https://github.com/yuanzhoulvpi2017/zero_nlp.git
- git clone https://huggingface.co/yuanzhoulvpi/chatglm6b-dddd
-
- cd zero_nlp/simple_thu_chatglm6b
- # execute jupyter notebook
- # load model and lora need 24G, training need 17G
- code02_训练模型全部流程.ipynb
执行 Juputer Notebook 后
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。