赞
踩
本范例我们微调transformers中的BERT来处理文本情感分类任务。
我们的数据集是美团外卖的用户评论数据集。
模型目标是把评论分成好评(标签为1)和差评(标签为0)。
- #安装库
- #!pip install datasets
- #!pip install transformers[torch]
- #!pip install torchkeras
公众号算法美食屋后台回复关键词 torchkeras, 获取本文源代码和waimai评论数据集。
准备数据阶段主要需要用到的是datasets.Dataset 和transformers.AutoTokenizer。
HuggingFace的datasets库提供了类似TensorFlow中的tf.data.Dataset的功能。
- import numpy as np
- import pandas as pd
-
- import torch
- from torch.utils.data import DataLoader
-
- import datasets
- df = pd.read_csv("data/waimai_10k.csv")
- ds = datasets.Dataset.from_pandas(df)
- ds = ds.shuffle(42) #打乱顺序
- ds = ds.rename_columns({"review":"text","label":"labels"})
ds[0]
{'labels': 0, 'text': '晚了半小时,七元套餐饮料就给的罐装的可乐,真是可以'}
ds[0:4]["text"]
- ['晚了半小时,七元套餐饮料就给的罐装的可乐,真是可以',
- '很好喝!天天都喝~~',
- '东西很少,像半分每次都是这样失望',
- '配送比较慢(不是高峰时间点的结果1个多小时才送到);菜品备注了“老人吃请少油少盐”,结果还是很咸很油,哎…失望']
transformers库使用tokenizer进行文本分词。
- from transformers import AutoTokenizer #BertTokenizer
- tokenizer = AutoTokenizer.from_pretrained('bert-base-chinese') #需要和模型一致
- print(tokenizer)
BertTokenizerFast(name_or_path='bert-base-chinese', vocab_size=21128, model_max_length=512, is_fast=True, padding_side='right', truncation_side='right', special_tokens={'unk_token': '[UNK]', 'sep_token': '[SEP]', 'pad_token': '[PAD]', 'cls_token': '[CLS]', 'mask_token': '[MASK]'}, clean_up_tokenization_spaces=True)
- #tokenizer可以使用 __call__,encode,encode_plus,batch_encode_plus等方法编码
- #可以使用decode,batch_decode等方法进行解码
- text_codes = tokenizer(text = '晚了半小时,七元套餐饮料就给的罐装的可乐,真是可以',
- text_pair = None,
- max_length = 100, #为空则默认为模型最大长度,如BERT是512,GPT是1024
- truncation = True,
- padding= 'do_not_pad') #可选'longest','max_length','do_not_pad'
-
- #input_ids是编码后的数字,token_type_ids表示来自第1个句子还是第2个句子
- #attention_mask在padding的位置是0其它位置是1
- print(text_codes)
{'input_ids': [101, 3241, 749, 1288, 2207, 3198, 8024, 673, 1039, 1947, 7623, 7650, 3160, 2218, 5314, 4638, 5380, 6163, 4638, 1377, 727, 8024, 4696, 3221, 1377, 809, 102], 'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], 'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]}
tokenizer.decode(text_codes["input_ids"][0])
'[CLS]'
tokenizer.batch_decode(text_codes["input_ids"])
- ['[CLS]',
- '晚',
- '了',
- '半',
- '小',
- '时',
- ',',
- '七',
- '元',
- '套',
- '餐',
- '饮',
- '料',
- '就',
- '给',
- '的',
- '罐',
- '装',
- '的',
- '可',
- '乐',
- ',',
- '真',
- '是',
- '可',
- '以',
- '[SEP]']
- tokens = tokenizer.tokenize(ds['text'][0])
- print("tokens=",tokens)
- ids = tokenizer.convert_tokens_to_ids(tokens)
- print("ids = ",ids)
- tokens= ['晚', '了', '半', '小', '时', ',', '七', '元', '套', '餐', '饮', '料', '就', '给', '的', '罐', '装', '的', '可', '乐', ',', '真', '是', '可', '以']
- ids = [3241, 749, 1288, 2207, 3198, 8024, 673, 1039, 1947, 7623, 7650, 3160, 2218, 5314, 4638, 5380, 6163, 4638, 1377, 727, 8024, 4696, 3221, 1377, 809]
- ds_encoded = ds.map(lambda example:tokenizer(example["text"],
- max_length=50,truncation=True,padding='max_length'),
- batched=True,
- batch_size=20,
- num_proc=2) #支持批处理和多进程map
- #转换成pytorch中的tensor
- ds_encoded.set_format(type="torch",columns = ["input_ids",'attention_mask','token_type_ids','labels'])
- #ds_encoded.reset_format()
- ds_encoded[0]
- #分割成训练集和测试集
- ds_train_val,ds_test = ds_encoded.train_test_split(test_size=0.2).values()
- ds_train,ds_val = ds_train_val.train_test_split(test_size=0.2).values()
- #在collate_fn中可以做动态批处理(dynamic batching)
-
- def collate_fn(examples):
- return tokenizer.pad(examples) #return_tensors='pt'
-
- #以下方式等价
- #from transformers import DataCollatorWithPadding
- #collate_fn = DataCollatorWithPadding(tokenizer=tokenizer)
-
- dl_train = torch.utils.data.DataLoader(ds_train, batch_size=16, collate_fn = collate_fn)
- dl_val = torch.utils.data.DataLoader(ds_val, batch_size=16, collate_fn = collate_fn)
- dl_test = torch.utils.data.DataLoader(ds_test, batch_size=16, collate_fn = collate_fn)
- for batch in dl_train:
- break
一个完整的模型(Model)包括模型架构(Architecture)和模型权重(Checkpoints/Weights)。
transformers提供了3种指定模型架构的方法。
第1种是指定模型架构(如: from transformers import BertModel)
第2种是自动推断模型架构(如: from transformers import AutoModel)
第3种是自动推断模型架构并自动添加Head (如: from transformers import AutoModelForSequenceClassification )
第1种方案和第2种方案用户可以灵活地根据自己要做的任务设计Head,并且需要对基础模型有一定的了解。
此处我们使用第3种方案。
- from transformers import AutoModelForSequenceClassification
-
- #加载模型 (会添加针对特定任务类型的Head)
- model = AutoModelForSequenceClassification.from_pretrained('bert-base-chinese',num_labels=2)
- dict(model.named_children()).keys()
dict_keys(['bert', 'dropout', 'classifier'])
我们可以用一个batch的数据去试算一下
output = model(**batch)
output.loss
tensor(0.6762, grad_fn=<NllLossBackward0>)
下面使用我们的梦中情炉 torchkeras 来实现最优雅的微调训练循环。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。