1. ChatGLM-6B
ChatGLM-6B
仓库地址:https://github.com/THUDM/ChatGLM-6B
ChatGLM-6B/P-Tuning
仓库地址:https://github.com/THUDM/ChatGLM-6B/tree/main/ptuning
1.1 P-Tuning v2简介
P-Tuning
是一种较新的模型微调方法,它采用了参数剪枝的技术,可以将微调的参数量减少到原来的0.1%。具体来说,P-Tuning v2
是基于P-Tuning v1
的升级版,主要的改进在于采用了更加高效的剪枝方法,可以进一步减少模型微调的参数量。
P-Tuning v2
的原理是通过对已训练好的大型语言模型进行参数剪枝,得到一个更加小巧、效率更高的轻量级模型。具体地,P-Tuning v2
首先使用一种自适应的剪枝策略,对大型语言模型中的参数进行裁剪,去除其中不必要的冗余参数。然后,对于被剪枝的参数,P-Tuning v2
使用了一种特殊的压缩方法,能够更加有效地压缩参数大小,并显著减少模型微调的总参数量。
总的来说,P-Tuning v2
的核心思想是让模型变得更加轻便、更加高效,同时尽可能地保持模型的性能不受影响。这不仅可以加快模型的训练和推理速度,还可以减少模型在使用过程中的内存和计算资源消耗,让模型更适用于各种实际应用场景中。
2. 运行环境
本项目租借autoDL GPU
机器,具体配置如下:
2.1 项目准备
1.创建conda
环境
conda create -n tuning-chatglm python=3.8
conda activate tuning-chatglm
- 1
- 2
2.拉取ChatGLM-6B
项目代码