赞
踩
nanoGPT,是用于培训/微调中型GPT的最简单、最快的存储库。因为代码非常简单,所以很容易满足需求,从头开始训练新模型,或者微调。基于GPT-2 1.3B模型,优点是cpu也可以跑,简单,快速。LLaMa的模型训练太耗费gpu,很多人也跑不了,所以暂时选择这个。
项目地址:https://github.com/karpathy/nanoGPT
1、搭建环境
git clone https://github.com/karpathy/nanoGPT
pip install transformers tiktoken tqdm
2、快速体验demo模型
在莎士比亚的作品中训练一个角色级的GPT,默认250轮会保存一次模型;在训练差不多可以直接ctrl+c停掉。
如果仔细观察,会发现我们正在训练一个GPT,其上下文大小最多为256个字符,384个功能通道,它是一个6层的Transformer,每层有6个头。
模型保存路径:D:\Simon\nanoGPT\out-shakespeare-char\ckpt.pt
# 下载数据集
$ python data/shakespeare_char/prepare.py
# 使用GPU训练,在一个A100 GPU上,此训练运行大约需要3分钟。没有gpu,使用参数--device=cpu
$ python train.py config/train_shakespeare_char.py
$ python train.py config/train_shakespeare_char.py --device=cpu --compile=False --eval_iters&
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。