赞
踩
部署步骤如下:(注意使用的是一块GeForce RTX 4090-Linux系统,若使用Windows将要考虑显存容量)
pip install -r requirements.txt(如果网好的情况下,直接使用;网不好,单独拎出来下载)
请注意:红框标注的两横可能在下载时出现错误,因此进行如下操作。
1.transformers的下载
pip install transformers
pip install transformers --upgrade
2.参数的下载,包括 LLaMA-7B-HF 大模型和 Lora 参数
python
>>> from huggingface_hub import snapshot_download
>>> snapshot_download(repo_id="decapoda-research/llama-7b-hf")
>>> snapshot_download(repo_id="tloen/alpaca-lora-7b")
运行后终端的结果
红色框住的是文件所在地址,此时运行generate.py,代码会报错。
修改generate.py文件中的模型参数地址后,再次执行generate.py,问题解决。
终端结果
点击生成的网页,修改红框内的参数,即可!
自己数据集如何制作,格式是什么样子的&改哪部分的finetune.py的代码,怎么输入!
通过官方给的数据集的格式,我们可以看到有三个变量,即“instruction”,“input”,“output”。
我想到的就是将我们常用的.txt按照想要的结构转为所需的.json文件,即可完成数据集的制作!
其实很简单,就是给几个超参数。
base_model:是我们上面下载的LLaMA-7B-HF 大模型的地址
data_path:是我们数据集存放的地址
output_dir:我们模型输出的位置(这里和我一样就行,不需要自己创建文件夹)
当然还有一些训练超参,大家自动调整,这里摆出给大家做参考!
这里会遇到torch.cuda.0utofMemoryError: CUDA out of memory.问题,我把解决方案写在了这篇,有需要的拿去借鉴!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。