当前位置:   article > 正文

【ChatGLM】大模型之 ChatGLM 微调_chatglm3微调

chatglm3微调

目录

1. 微调方法

2. 全量参数微调

3. P-tuning v2

4. LoRA


1. 微调方法

  • 全参数微调

对模型全量参数进行训练。

  • P-tunning v2 

前缀微调,在模型每一层都增加前缀,只训练这部分的参数,训练量明显小于全量微调。

  • LoRA

基于矩阵分解的微调,假设原权重喂 W_0,我们新增一个和 W_0 一摸一样形状的矩阵 W_delta,并且对 W_delta 分解为 A 和 B,在训练过程中只训练 A 和 B 的参数,最后的权重 W = W_0 + W_delta

2. 全量参数微调

代码下载见:

【ChatGLM】大模型之 ChatGLM 部署

  1. ### full parameter finetuning ### (need enough GPU, at least 4 A100)
  2. cd ptuning
  3. sh ds_train_finetune.sh

3. P-tuning v2

代码下载见:

【ChatGLM】大模型之 ChatGLM 部署

  1. ### p-tuning v2 ###
  2. # dataset
  3. cd ptuning
  4. wget https://cloud.tsinghua.edu.cn/seafhttp/files/802c9912-2742-47c9-a0d3-18ee08d83438/AdvertiseGen.tar.gz
  5. tar -xvf AdvertiseGen.tar.gz
  6. # modify model path and other parameter
  7. sh train.sh

4. LoRA

  1. ### LoRA ###
  2. git clone https://github.com/yuanzhoulvpi2017/zero_nlp.git
  3. git clone https://huggingface.co/yuanzhoulvpi/chatglm6b-dddd
  4. cd zero_nlp/simple_thu_chatglm6b
  5. # execute jupyter notebook
  6. # load model and lora need 24G, training need 17G
  7. code02_训练模型全部流程.ipynb

执行 Juputer Notebook 后

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/251770
推荐阅读
相关标签
  

闽ICP备14008679号