当前位置:   article > 正文

预训练模型与微调_预训练模型微调

预训练模型微调

前言:

预训练模型已经火了这么久了,但作为菜本菜的我却还在用lstm。在生成任务上与同门学长用的预训练模型相比,效果差的比较明显。所以,我决定走上预训练的不归路。以下分享我的学习过程:

了解模型:

小说故事生成模型

万事开头难,上视频:视频我喜欢看简短的

从零实现GPT-2,瞎写笑傲江湖外传,金庸直呼内行_哔哩哔哩_bilibili

这是一个非常简单的模型。他没有用huggingface的模型库,而是用pytorch自己搭建了一个模型。也没有用预训练的参数,而是从头开始训练。

过程:

1. 数据处理:数据用的是金庸的小说笑傲江湖。直接就是每次去128个字作为一个预料。输入x和输出y唯一的区别就在于移了一位。(根据transformer生成任务的特点)

2. tokenizer:对小说手动构建字典。利用set()函数获取整个小说的无序不重复的字,然后构建字典

  1. chars = sorted(list(set(data)))
  2. self.stoi = { ch:i for i,ch in enumerate(chars) }
  3. self.itos = { i:ch for i,ch in enumerate(chars) }

3. 加载数据:

        继承Dataset并修改__init__()、__len__()  和 __getitem__()

4. 模型:也是自己写的,结构包括词向量编码、位置编码、主体、输出层

  1. class GPT(nn.Module):
  2. """ the full GPT language model, with a context size of block_size """
  3. def __init__(self, config):
  4. super().__init__()
  5. # input embedding stem
  6. self.tok_emb = nn.Embedding(config.vocab_size, config.n_embd)
  7. self.pos_emb = nn.Parameter(torch.zeros(1, config.block_size, config.n_embd))
  8. self.drop = nn.Dropout(config.embd_pdrop)
  9. # transformer 主体
  10. self.blocks = nn.Sequential(*[Block(config) for _ in range(config.n_layer)])
  11. # decoder head 输出线形层
  12. self.ln_f = nn.LayerNorm(config.n_embd)
  13. self.head = nn.Linear(config.n_embd, config.vocab_size, bias=False)

主题结构呢,就是transformer的decoder部分,删掉中间的encoder-decoder注意力一块。那无非就是mask自注意力,和前馈神经网络两块。每块都包含曾归一化和残差链接两部分。

  1. class Block(nn.Module):
  2. """ an unassuming Transformer block """
  3. def __init__(self, config):
  4. super().__init__()
  5. self.ln1 = nn.LayerNorm(config.n_embd)
  6. self.ln2 = nn.LayerNorm(config.n_embd)
  7. self.attn = CausalSelfAttention(config)
  8. self.mlp = nn.Sequential( #前馈神经网络就是两个先行曾中间夹一个激活函数
  9. nn.Linear(config.n_embd, 4 * config.n_embd),
  10. nn.GELU(),
  11. nn.Linear(4 * config.n_embd, config.n_embd),
  12. nn.Dropout(config.resid_pdrop),
  13. )
  14. def forward(self, x):
  15. x = x + self.attn(self.ln1(x)) #将词向量+位置向量输入,经过曾归一化进入mask注意力(self.attn)并做残差链接
  16. x = x + self.mlp(self.ln2(x)) #将mask注意力输出结果层归一化,进入前馈神经网络,并残差链接
  17. return x

以上是这个模型的主要内容了。从这个模型清晰的看到GPT2模型的结果,我也明白了重要的一点:预训练模型的大预料库基本是没有具体任务的标签的,那他是怎么训练的呢?就是通过移位操作,输入和输出之间搓开一位。训练的是模型对于语言整体的感知能力。也就是让你不断地看书,学习,掌握知识。对于具体的下游任务,再去fine-turning。

那么问题来了,我还是不会使用预训练模型

中文闲聊型对话

话不多说,上视频

GPT2中文闲聊对话系统代码讲解_哔哩哔哩_bilibili

1.数据处理,这里项目作者已经准备了大量的对话预料可供下载

2.tokenizer,作者有提供他们做好的中文字典

  1. from transformers import BertTokenizerFast
  2. tokenizer = BertTokenizerFast(vocab_file=args.vocab_path, sep_token="[SEP]", pad_token="[PAD]", cls_token="[CLS]")
  3. input_ids = tokenizer.encode(utterance, add_special_tokens=False) #处理预料。

3. 加载数据,在这里通过dataloader的collect_fn对预料做了移位操作。dataset依然继承并修改三个函数即可。

4. 模型:这里模型通过transformers库的GPT2LMheadMoodel(config=model_fonfig)创建,因此不方便查看模型具体结构。

  1. from transformers import GPT2LMHeadModel, GPT2Config
  2. if args.pretrained_model: # 加载预训练模型
  3. model = GPT2LMHeadModel.from_pretrained(args.pretrained_model)
  4. else: # 初始化模型
  5. model_config = GPT2Config.from_json_file(args.model_config)
  6. model = GPT2LMHeadModel(config=model_config)

但是在debug过程中,进入模型可以看到。这里将在下一篇分享中介绍

  1. class GPT2LMHeadModel(GPT2PreTrainedModel):
  2. def __init__(self, config):
  3. super().__init__(config)
  4. self.transformer =GPT2Model(config)
  5. self.lm_head = nn.Linear(config.n_embd, config.vocab_size, bias=False)

其中GPT2Model的模型结构和上个项目的GPT模型结构是一毛一样的。

在这个项目中因为模型太大,没有看出什么,但可以为后面做一个铺垫。

以上是第二个项目的主要内容,和第一个没啥区别,只是训练出来一个会骂人的人工智障。

那我还是不会用预训练与微调啊。

预训练与微调:

经过前两个项目的铺垫,针对预训练与微调我想要明白以下几个问题:

Q1.字典要自己构建吗?如何处理数据啊?

Q2.如何加载预训练模型啊?网上的项目五花八门,有的下载了什么权重,有的说什么117M模型,345M模型参数已公开,有的说OpenAI,但他是tensorflow框架我不会,有的说huggingface,他太大了我没看懂。。。。

Q3.怎么将预训练模型用到下游任务啊,怎么在预训练模型上修改适用于我的任务啊?

Q4.微调怎么微调啊,什么是微调啊?怎么冻结原来模型参数啊

下面一一分析回答。

废话不多说,上视频HuggingFace简明教程,BERT中文模型实战示例.NLP预训练模型,Transformers类库,datasets类库快速入门._哔哩哔哩_bilibili

这个视频是bert预训练模型,和我要用的GPT2不是同一个。但是道理方法都是一样的。

简单看下huggingface吧:Hugging Face – The AI community building the future.

主要有几个部分:

models:各种写好的预训练模型,每个模型包含一个model card和一个Files and versions。

datasets:常见的数据集

docs:相应模型的说明文档

之前也不知道模型卡是什么幺蛾子,现在明白,他相当于一个小tips,提示你这个模型怎么用

首先,还是来一遍项目顺序吧:

1.数据处理:咱还用闲聊对话项目里面的数据

2.tokenizer:这就是我们的Q1问题,要自己构建词典吗?

回答:可以自己构建,比如上个闲聊对话,就是自己构建字典,构建tokenizer,自己准备数据,自己从头训练。但是如果我们要用huggingface里面的预训练模型与参数的话,就不用自己构建了

比如我们想要用gpt2--chinese模型,找到该模型的模型卡,他告诉我们

  1. from transformers import (
  2. BertTokenizerFast,
  3. AutoModel,
  4. )
  5. tokenizer = BertTokenizerFast.from_pretrained('bert-base-chinese')
  6. model = AutoModel.from_pretrained('ckiplab/gpt2-base-chinese')

这就明白了,如果我们想要用预训练好的模型,那就直接加载他的tokenizer即可。

而处理数据也只需要如下,即可将文本转换成对应的id

data_ids = tokenizer.encode(data, add_speical_tokens=False)

3. 加载数据,在dataset的__getitem__() 和 dataloader的collect_fn()中修改数据处理成想要的样子即可。

4.加载模型,这就遇到了我们的Q2问题,想要加载预训练模型,直接从huggingface对应模型的model card里面复制即可

  1. from transformers import AutoModel
  2. model = AutoModel.from_pretrained('ckiplab/gpt2-base-chinese')

也就是说,不用下载什么权重文件(当然也可以),直接调用模型接口加载即可

5. 定义下游任务模型:这就是我们的Q3问题,如何将预训练模型用到下游任务,这对我来说是重点。但是明白之后原来也不难。上代码

  1. class Model(torch.nn.Module):
  2. def __init__(self):
  3. super().__init__()
  4. self.predmodel = AutoModel.from_pretrained('ckiplab/gpt2-base-chinese') #加载原始预训练模型
  5. self.fc = torch.nn.Linear(768,vocab_size) # 为模型添加新的结构 输出层
  6. def forward(self, input_ids, labels):
  7. with torch.no_grad(): # 原来的与训练模型不用更新参数
  8. out = self.predmodel(ipythonput_ids) # 原始预训练模型输出结果
  9. out = self.fc(out.last_hidden_state[:,0]) # 放入下游具体任务的输出层中
  10. out = out.softmax(dim = 1) # 并进行softmax操作
  11. reture out # 才是最终的输出结果
  12. model = Model() # 实例化

这里我们定义具体模型,就是先加载一个想要的预训练模型,这个模型实际上和最上面第一个项目 小说生成都是一样的。

它就是从输入向量到模型主体,这一大块,没有输出层。我们将预训练模型迁移到我们具体任务就是加上输出层也就是self.fc 。

这里如果是二分类任务,就加一个 self.fc = torch.nn.Linear(768,2)

如果是生成任务,就加一个 self.fc = torch.nn.Linear(768, tokenizer.vocab_size)

到此模型部分已经准备好了,就剩训练了‘

6.模型训练:优化器+损失函数

  1. optimizer = Adamw(model.parameters,lr = 0.0001)
  2. criterion = torch.nn.CrossEntropyLoss()
  3. model.train() # 设置模型为训练模式
  4. for i, data in enumerate(loader):
  5. out = model(input_ids,..)
  6. loss = criterion(out, labels)
  7. loss.backward()
  8. optimizer.step()
  9. optimizer.zero_grad()

对于Q4,微调:微调,就是在自己的数据上将模型再训练一遍。那么如何冻结原模型参数,只训练新加模块呢?

两个方法:

a. 如步骤5中,在模型的forward部分,对于预训练模块,用 with torch.no_grad()不更新梯度。

  1. def forward(self, input_ids, labels):
  2. with torch.no_grad(): # 原来的与训练模型不用更新参数
  3. out = self.predmodel(ipythonput_ids) # 原始预训练模型输出结果
  4. out = self.fc(out.last_hidden_state[:,0]) # 放入下游具体任务的输出层中

b. 对预训练模型参数用param.requires_grad_(False)

  1. def forward(self, input_ids, labels):
  2. for param in self.predmodel.parameters():
  3. param.requires_grad_(False) # 原来的与训练模型不用更新参数
  4. out = self.predmodel(ipythonput_ids) # 原始预训练模型输出结果
  5. out = self.fc(out.last_hidden_state[:,0]) # 放入下游具体任务的输出层中

两个方法的区别,什么时候该用with torch.no_grad()?什么时候该用.requires_grad ==False?_Y. F. Zhang的博客-CSDN博客

但是我没看懂。。

到此,简单的使用huggingface调用预训练模型并在下游任务上微调的基本过程就有了。至于写项目的话,还是得找大佬的项目,然后进行修改。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/625464
推荐阅读
相关标签
  

闽ICP备14008679号