当前位置:   article > 正文

第四章:Transformer经典案例_transformers 代码案例

transformers 代码案例

学习目标

  • 了解有关语言模型的知识.
  • 掌握使用Transformer构建语言模型的实现过程.
  • 什么是语言模型:
    • 以一个符合语言规律的序列为输入,模型将利用序列间关系等特征,输出一个在所有词汇上的概率分布.这样的模型称为语言模型.
  1. # 语言模型的训练语料一般来自于文章,对应的源文本和目标文本形如:
  2. src1 = "I can do" tgt1 = "can do it"
  3. src2 = "can do it", tgt2 = "do it <eos>"
  • 语言模型能解决哪些问题:
    • 1, 根据语言模型的定义,可以在它的基础上完成机器翻译,文本生成等任务,因为我们通过最后输出的概率分布来预测下一个词汇是什么.
    • 2, 语言模型可以判断输入的序列是否为一句完整的话,因为我们可以根据输出的概率分布查看最大概率是否落在句子结束符上,来判断完整性.
    • 3, 语言模型本身的训练目标是预测下一个词,因为它的特征提取部分会抽象很多语言序列之间的关系,这些关系可能同样对其他语言类任务有效果.因此可以作为预训练模型进行迁移学习.

整个案例的实现可分为以下五个步骤

  • 第一步: 导入必备的工具包
  • 第二步: 导入wikiText-2数据集并作基本处理
  • 第三步: 构建用于模型输入的批次化数据
  • 第四步: 构建训练和评估函数
  • 第五步: 进行训练和评估(包括验证以及测试)

第一步: 导入必备的工具包

  • pytorch版本必须使用1.3.1, python版本使用3.6.x
pip install torch==1.3.1

  1. # 数学计算工具包math
  2. import math
  3. # torch以及torch.nn, torch.nn.functional
  4. import torch
  5. import torch.nn as nn
  6. import torch.nn.functional as F
  7. # torch中经典文本数据集有关的工具包
  8. # 具体详情参考下方torchtext介绍
  9. import torchtext
  10. # torchtext中的数据处理工具, get_tokenizer用于英文分词
  11. from torchtext.data.utils import get_tokenizer
  12. # 已经构建完成的TransformerModel
  13. from pyitcast.transformer import TransformerModel
  • torchtext介绍:
    • 它是torch工具中处理NLP问题的常用数据处理包.

  • torchtext的重要功能:
    • 对文本数据进行处理, 比如文本语料加载, 文本迭代器构建等.
    • 包含很多经典文本语料的预加载方法. 其中包括的语料有:用于情感分析的SST和IMDB, 用于问题分类的TREC, 用于及其翻译的 WMT14, IWSLT,以及用于语言模型任务wikiText-2, WikiText103, PennTreebank.

  • 我们这里使用wikiText-2来训练语言模型, 下面有关该数据集的相关详情:

  • wikiText-2数据集的体量中等, 训练集共有600篇短文, 共208万左右的词汇, 33278个不重复词汇, OoV(有多少正常英文词汇不在该数据集中的占比)为2.6%,数据集中的短文都是维基百科中对一些概念的介绍和描述.

第二步: 导入wikiText-2数据集并作基本处理

  1. # 创建语料域, 语料域是存放语料的数据结构,
  2. # 它的四个参数代表给存放语料(或称作文本)施加的作用.
  3. # 分别为 tokenize,使用get_tokenizer("basic_english")获得一个分割器对象,
  4. # 分割方式按照文本为基础英文进行分割.
  5. # init_token为给文本施加的起始符 <sos>给文本施加的终止符<eos>,
  6. # 最后一个lower为True, 存放的文本字母全部小写.
  7. TEXT = torchtext.data.Field(tokenize=get_tokenizer("basic_english"),
  8. init_token='<sos>',
  9. eos_token='<eos>',
  10. lower=True)
  11. # 最终获得一个Field对象.
  12. # <torchtext.data.field.Field object at 0x7fc42a02e7f0>
  13. # 然后使用torchtext的数据集方法导入WikiText2数据,
  14. # 并切分为对应训练文本, 验证文本,测试文本, 并对这些文本施加刚刚创建的语料域.
  15. train_txt, val_txt, test_txt = torchtext.datasets.WikiText2.splits(TEXT)
  16. # 我们可以通过examples[0].text取出文本对象进行查看.
  17. # >>> test_txt.examples[0].text[:10]
  18. # ['<eos>', '=', 'robert', '<unk>', '=', '<eos>', '<eos>', 'robert', '<unk>', 'is']
  19. # 将训练集文本数据构建一个vocab对象,
  20. # 这样可以使用vocab对象的stoi方法统计文本共包含的不重复词汇总数.
  21. TEXT.build_vocab(train_txt)
  22. # 然后选择设备cuda或者cpu
  23. device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
  • 该案例的所有代码都将实现在一个transformer_lm.py文件中.

第三步: 构建用于模型输入的批次化数据

  • 批次化过程的第一个函数batchify代码分析:
  1. def batchify(data, bsz):
  2. """batchify函数用于将文本数据映射成连续数字, 并转换成指定的样式, 指定的样式可参考下图.
  3. 它有两个输入参数, data就是我们之前得到的文本数据(train_txt, val_txt, test_txt),
  4. bsz是就是batch_size, 每次模型更新参数的数据量"""
  5. # 使用TEXT的numericalize方法将单词映射成对应的连续数字.
  6. data = TEXT.numericalize([data.examples[0].text])
  7. # >>> data
  8. # tensor([[ 3],
  9. # [ 12],
  10. # [3852],
  11. # ...,
  12. # [ 6],
  13. # [ 3],
  14. # [ 3]])
  15. # 接着用数据词汇总数除以bsz,
  16. # 取整数得到一个nbatch代表需要多少次batch后能够遍历完所有数据
  17. nbatch = data.size(0) // bsz
  18. # 之后使用narrow方法对不规整的剩余数据进行删除,
  19. # 第一个参数是代表横轴删除还是纵轴删除, 0为横轴,1为纵轴
  20. # 第二个和第三个参数代表保留开始轴到结束轴的数值.类似于切片
  21. # 可参考下方演示示例进行更深理解.
  22. data = data.narrow(0, 0, nbatch * bsz)
  23. # >>> data
  24. # tensor([[ 3],
  25. # [ 12],
  26. # [3852],
  27. # ...,
  28. # [ 78],
  29. # [ 299],
  30. # [ 36]])
  31. # 后面不能形成bsz个的一组数据被删除
  32. # 接着我们使用view方法对data进行矩阵变换, 使其成为如下样式:
  33. # tensor([[ 3, 25, 1849, ..., 5, 65, 30],
  34. # [ 12, 66, 13, ..., 35, 2438, 4064],
  35. # [ 3852, 13667, 2962, ..., 902, 33, 20],
  36. # ...,
  37. # [ 154, 7, 10, ..., 5, 1076, 78],
  38. # [ 25, 4, 4135, ..., 4, 56, 299],
  39. # [ 6, 57, 385, ..., 3168, 737, 36]])
  40. # 因为会做转置操作, 因此这个矩阵的形状是[None, bsz],
  41. # 如果输入是训练数据的话,形状为[104335, 20], 可以通过打印data.shape获得.
  42. # 也就是data的列数是等于bsz的值的.
  43. data = data.view(bsz, -1).t().contiguous()
  44. # 最后将数据分配在指定的设备上.
  45. return data.to(device)
  • batchify的样式转化图:

  • 大写字母A,B,C ... 代表句子中的每个单词.


  • torch.narrow演示:
  1. >>> x = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
  2. >>> x.narrow(0, 0, 2)
  3. tensor([[ 1, 2, 3],
  4. [ 4, 5, 6]])
  5. >>> x.narrow(1, 1, 2)
  6. tensor([[ 2, 3],
  7. [ 5, 6],
  8. [ 8, 9]])
  • 接下来我们将使用batchify来处理训练数据,验证数据以及测试数据
  1. # 训练数据的batch size
  2. batch_size = 20
  3. # 验证和测试数据(统称为评估数据)的batch size
  4. eval_batch_size = 10
  5. # 获得train_data, val_data, test_data
  6. train_data = batchify(train_txt, batch_size)
  7. val_data = batchify(val_txt, eval_batch_size)
  8. test_data = batchify(test_txt, eval_batch_size)
  • 上面的分割批次并没有进行源数据与目标数据的处理, 接下来我们将根据语言模型训练的语料规定来构建源数据与目标数据.
  • 语言模型训练的语料规定:
    • 如果源数据为句子ABCD, ABCD代表句子中的词汇或符号, 则它的目标数据为BCDE, BCDE分别代表ABCD的下一个词汇.

  • 如图所示,我们这里的句子序列是竖着的, 而且我们发现如果用一个批次处理完所有数据, 以训练数据为例, 每个句子长度高达104335, 这明显是不科学的, 因此我们在这里要限定每个批次中的句子长度允许的最大值bptt.

  • 批次化过程的第二个函数get_batch代码分析:

  1. # 令子长度允许的最大值bptt为35
  2. bptt = 35
  3. def get_batch(source, i):
  4. """用于获得每个批次合理大小的源数据和目标数据.
  5. 参数source是通过batchify得到的train_data/val_data/test_data.
  6. i是具体的批次次数.
  7. """
  8. # 首先我们确定句子长度, 它将是在bptt和len(source) - 1 - i中最小值
  9. # 实质上, 前面的批次中都会是bptt的值, 只不过最后一个批次中, 句子长度
  10. # 可能不够bptt的35个, 因此会变为len(source) - 1 - i的值.
  11. seq_len = min(bptt, len(source) - 1 - i)
  12. # 语言模型训练的源数据的第i批数据将是batchify的结果的切片[i:i+seq_len]
  13. data = source[i:i+seq_len]
  14. # 根据语言模型训练的语料规定, 它的目标数据是源数据向后移动一位
  15. # 因为最后目标数据的切片会越界, 因此使用view(-1)来保证形状正常.
  16. target = source[i+1:i+1+seq_len].view(-1)
  17. return data, target
  • 输入实例:

  1. # 以测试集数据为例
  2. source = test_data
  3. i =
  • 输出效果:
  1. data = tensor([[ 12, 1053, 355, 134, 37, 7, 4, 0, 835, 9834],
  2. [ 635, 8, 5, 5, 421, 4, 88, 8, 573, 2511],
  3. [ 0, 58, 8, 8, 6, 692, 544, 0, 212, 5],
  4. [ 12, 0, 105, 26, 3, 5, 6, 0, 4, 56],
  5. [ 3, 16074, 21254, 320, 3, 262, 16, 6, 1087, 89],
  6. [ 3, 751, 3866, 10, 12, 31, 246, 238, 79, 49],
  7. [ 635, 943, 78, 36, 12, 475, 66, 10, 4, 924],
  8. [ 0, 2358, 52, 4, 12, 4, 5, 0, 19831, 21],
  9. [ 26, 38, 54, 40, 1589, 3729, 1014, 5, 8, 4],
  10. [ 33, 17597, 33, 1661, 15, 7, 5, 0, 4, 170],
  11. [ 335, 268, 117, 0, 0, 4, 3144, 1557, 0, 160],
  12. [ 106, 4, 4706, 2245, 12, 1074, 13, 2105, 5, 29],
  13. [ 5, 16074, 10, 1087, 12, 137, 251, 13238, 8, 4],
  14. [ 394, 746, 4, 9, 12, 6032, 4, 2190, 303, 12651],
  15. [ 8, 616, 2107, 4, 3, 4, 425, 0, 10, 510],
  16. [ 1339, 112, 23, 335, 3, 22251, 1162, 9, 11, 9],
  17. [ 1212, 468, 6, 820, 9, 7, 1231, 4202, 2866, 382],
  18. [ 6, 24, 104, 6, 4, 4, 7, 10, 9, 588],
  19. [ 31, 190, 0, 0, 230, 267, 4, 273, 278, 6],
  20. [ 34, 25, 47, 26, 1864, 6, 694, 0, 2112, 3],
  21. [ 11, 6, 52, 798, 8, 69, 20, 31, 63, 9],
  22. [ 1800, 25, 2141, 2442, 117, 31, 196, 7290, 4, 298],
  23. [ 15, 171, 15, 17, 1712, 13, 217, 59, 736, 5],
  24. [ 4210, 191, 142, 14, 5251, 939, 59, 38, 10055, 25132],
  25. [ 302, 23, 11718, 11, 11, 599, 382, 317, 8, 13],
  26. [ 16, 1564, 9, 4808, 6, 0, 6, 6, 4, 4],
  27. [ 4, 7, 39, 7, 3934, 5, 9, 3, 8047, 557],
  28. [ 394, 0, 10715, 3580, 8682, 31, 242, 0, 10055, 170],
  29. [ 96, 6, 144, 3403, 4, 13, 1014, 14, 6, 2395],
  30. [ 4, 3, 13729, 14, 40, 0, 5, 18, 676, 3267],
  31. [ 1031, 3, 0, 628, 1589, 22, 10916, 10969, 5, 22548],
  32. [ 9, 12, 6, 84, 15, 49, 3144, 7, 102, 15],
  33. [ 916, 12, 4, 203, 0, 273, 303, 333, 4318, 0],
  34. [ 6, 12, 0, 4842, 5, 17, 4, 47, 4138, 2072],
  35. [ 38, 237, 5, 50, 35, 27, 18530, 244, 20, 6]])
  36. target = tensor([ 635, 8, 5, 5, 421, 4, 88, 8, 573, 2511,
  37. 0, 58, 8, 8, 6, 692, 544, 0, 212, 5,
  38. 12, 0, 105, 26, 3, 5, 6, 0, 4, 56,
  39. 3, 16074, 21254, 320, 3, 262, 16, 6, 1087, 89,
  40. 3, 751, 3866, 10, 12, 31, 246, 238, 79, 49,
  41. 635, 943, 78, 36, 12, 475, 66, 10, 4, 924,
  42. 0, 2358, 52, 4, 12, 4, 5, 0, 19831, 21,
  43. 26, 38, 54, 40, 1589, 3729, 1014, 5, 8, 4,
  44. 33, 17597, 33, 1661, 15, 7, 5, 0, 4, 170,
  45. 335, 268, 117, 0, 0, 4, 3144, 1557, 0, 160,
  46. 106, 4, 4706, 2245, 12, 1074, 13, 2105, 5, 29,
  47. 5, 16074, 10, 1087, 12, 137, 251, 13238, 8, 4,
  48. 394, 746, 4, 9, 12, 6032, 4, 2190, 303, 12651,
  49. 8, 616, 2107, 4, 3, 4, 425, 0, 10, 510,
  50. 1339, 112, 23, 335, 3, 22251, 1162, 9, 11, 9,
  51. 1212, 468, 6, 820, 9, 7, 1231, 4202, 2866, 382,
  52. 6, 24, 104, 6, 4, 4, 7, 10, 9, 588,
  53. 31, 190, 0, 0, 230, 267, 4, 273, 278, 6,
  54. 34, 25, 47, 26, 1864, 6, 694, 0, 2112, 3,
  55. 11, 6, 52, 798, 8, 69, 20, 31, 63, 9,
  56. 1800, 25, 2141, 2442, 117, 31, 196, 7290, 4, 298,
  57. 15, 171, 15, 17, 1712, 13, 217, 59, 736, 5,
  58. 4210, 191, 142, 14, 5251, 939, 59, 38, 10055, 25132,
  59. 302, 23, 11718, 11, 11, 599, 382, 317, 8, 13,
  60. 16, 1564, 9, 4808, 6, 0, 6, 6, 4, 4,
  61. 4, 7, 39, 7, 3934, 5, 9, 3, 8047, 557,
  62. 394, 0, 10715, 3580, 8682, 31, 242, 0, 10055, 170,
  63. 96, 6, 144, 3403, 4, 13, 1014, 14, 6, 2395,
  64. 4, 3, 13729, 14, 40, 0, 5, 18, 676, 3267,
  65. 1031, 3, 0, 628, 1589, 22, 10916, 10969, 5, 22548,
  66. 9, 12, 6, 84, 15, 49, 3144, 7, 102, 15,
  67. 916, 12, 4, 203, 0, 273, 303, 333, 4318, 0,
  68. 6, 12, 0, 4842, 5, 17, 4, 47, 4138, 2072,
  69. 38, 237, 5, 50, 35, 27, 18530, 244, 20, 6,
  70. 13, 1083, 35, 1990, 653, 13, 10, 11, 1538, 56])

第四步: 构建训练和评估函数

  • 设置模型超参数和初始化模型
  1. # 通过TEXT.vocab.stoi方法获得不重复词汇总数
  2. ntokens = len(TEXT.vocab.stoi)
  3. # 词嵌入大小为200
  4. emsize = 200
  5. # 前馈全连接层的节点数
  6. nhid = 200
  7. # 编码器层的数量
  8. nlayers = 2
  9. # 多头注意力机制的头数
  10. nhead = 2
  11. # 置0比率
  12. dropout = 0.2
  13. # 将参数输入到TransformerModel中
  14. model = TransformerModel(ntokens, emsize, nhead, nhid, nlayers, dropout).to(device)
  15. # 模型初始化后, 接下来进行损失函数和优化方法的选择.
  16. # 关于损失函数, 我们使用nn自带的交叉熵损失
  17. criterion = nn.CrossEntropyLoss()
  18. # 学习率初始值定为5.0
  19. lr = 5.0
  20. # 优化器选择torch自带的SGD随机梯度下降方法, 并把lr传入其中
  21. optimizer = torch.optim.SGD(model.parameters(), lr=lr)
  22. # 定义学习率调整方法, 使用torch自带的lr_scheduler, 将优化器传入其中.
  23. scheduler = torch.optim.lr_scheduler.StepLR(optimizer, 1.0, gamma=0.95)
  • 模型训练代码分析:
  1. # 导入时间工具包
  2. import time
  3. def train():
  4. """训练函数"""
  5. # 模型开启训练模式
  6. model.train()
  7. # 定义初始损失为0
  8. total_loss = 0.
  9. # 获得当前时间
  10. start_time = time.time()
  11. # 开始遍历批次数据
  12. for batch, i in enumerate(range(0, train_data.size(0) - 1, bptt)):
  13. # 通过get_batch获得源数据和目标数据
  14. data, targets = get_batch(train_data, i)
  15. # 设置优化器初始梯度为0梯度
  16. optimizer.zero_grad()
  17. # 将数据装入model得到输出
  18. output = model(data)
  19. # 将输出和目标数据传入损失函数对象
  20. loss = criterion(output.view(-1, ntokens), targets)
  21. # 损失进行反向传播以获得总的损失
  22. loss.backward()
  23. # 使用nn自带的clip_grad_norm_方法进行梯度规范化, 防止出现梯度消失或爆炸
  24. torch.nn.utils.clip_grad_norm_(model.parameters(), 0.5)
  25. # 模型参数进行更新
  26. optimizer.step()
  27. # 将每层的损失相加获得总的损失
  28. total_loss += loss.item()
  29. # 日志打印间隔定为200
  30. log_interval = 200
  31. # 如果batch是200的倍数且大于0,则打印相关日志
  32. if batch % log_interval == 0 and batch > 0:
  33. # 平均损失为总损失除以log_interval
  34. cur_loss = total_loss / log_interval
  35. # 需要的时间为当前时间减去开始时间
  36. elapsed = time.time() - start_time
  37. # 打印轮数, 当前批次和总批次, 当前学习率, 训练速度(每豪秒处理多少批次),
  38. # 平均损失, 以及困惑度, 困惑度是衡量语言模型的重要指标, 它的计算方法就是
  39. # 对交叉熵平均损失取自然对数的底数.
  40. print('| epoch {:3d} | {:5d}/{:5d} batches | '
  41. 'lr {:02.2f} | ms/batch {:5.2f} | '
  42. 'loss {:5.2f} | ppl {:8.2f}'.format(
  43. epoch, batch, len(train_data) // bptt, scheduler.get_lr()[0],
  44. elapsed * 1000 / log_interval,
  45. cur_loss, math.exp(cur_loss)))
  46. # 每个批次结束后, 总损失归0
  47. total_loss = 0
  48. # 开始时间取当前时间
  49. start_time = time.time()
  • 模型评估代码分析:
  1. def evaluate(eval_model, data_source):
  2. """评估函数, 评估阶段包括验证和测试,
  3. 它的两个参数eval_model为每轮训练产生的模型
  4. data_source代表验证或测试数据集"""
  5. # 模型开启评估模式
  6. eval_model.eval()
  7. # 总损失归0
  8. total_loss = 0
  9. # 因为评估模式模型参数不变, 因此反向传播不需要求导, 以加快计算
  10. with torch.no_grad():
  11. # 与训练过程相同, 但是因为过程不需要打印信息, 因此不需要batch数
  12. for i in range(0, data_source.size(0) - 1, bptt):
  13. # 首先还是通过通过get_batch获得验证数据集的源数据和目标数据
  14. data, targets = get_batch(data_source, i)
  15. # 通过eval_model获得输出
  16. output = eval_model(data)
  17. # 对输出形状扁平化, 变为全部词汇的概率分布
  18. output_flat = output.view(-1, ntokens)
  19. # 获得评估过程的总损失
  20. total_loss += criterion(output_flat, targets).item()
  21. # 计算平均损失
  22. cur_loss = total_loss / ((data_source.size(0) - 1) / bptt)
  23. # 返回平均损失
  24. return cur_loss

第五步: 进行训练和评估(包括验证以及测试)

  • 模型的训练与验证代码分析:
  1. # 首先初始化最佳验证损失,初始值为无穷大
  2. import copy
  3. best_val_loss = float("inf")
  4. # 定义训练轮数
  5. epochs = 3
  6. # 定义最佳模型变量, 初始值为None
  7. best_model = None
  8. # 使用for循环遍历轮数
  9. for epoch in range(1, epochs + 1):
  10. # 首先获得轮数开始时间
  11. epoch_start_time = time.time()
  12. # 调用训练函数
  13. train()
  14. # 该轮训练后我们的模型参数已经发生了变化
  15. # 将模型和评估数据传入到评估函数中
  16. val_loss = evaluate(model, val_data)
  17. # 之后打印每轮的评估日志,分别有轮数,耗时,验证损失以及验证困惑度
  18. print('-' * 89)
  19. print('| end of epoch {:3d} | time: {:5.2f}s | valid loss {:5.2f} | '
  20. 'valid ppl {:8.2f}'.format(epoch, (time.time() - epoch_start_time),
  21. val_loss, math.exp(val_loss)))
  22. print('-' * 89)
  23. # 我们将比较哪一轮损失最小,赋值给best_val_loss,
  24. # 并取该损失下的模型为best_model
  25. if val_loss < best_val_loss:
  26. best_val_loss = val_loss
  27. # 使用深拷贝,拷贝最优模型
  28. best_model = copy.deepcopy(model)
  29. # 每轮都会对优化方法的学习率做调整
  30. scheduler.step()
  • 输出效果:
  1. | epoch 1 | 200/ 2981 batches | lr 5.00 | ms/batch 30.03 | loss 7.68 | ppl 2158.52
  2. | epoch 1 | 400/ 2981 batches | lr 5.00 | ms/batch 28.90 | loss 5.26 | ppl 193.39
  3. | epoch 1 | 600/ 2981 batches | lr 5.00 | ms/batch 28.90 | loss 4.07 | ppl 58.44
  4. | epoch 1 | 800/ 2981 batches | lr 5.00 | ms/batch 28.88 | loss 3.41 | ppl 30.26
  5. | epoch 1 | 1000/ 2981 batches | lr 5.00 | ms/batch 28.89 | loss 2.98 | ppl 19.72
  6. | epoch 1 | 1200/ 2981 batches | lr 5.00 | ms/batch 28.90 | loss 2.79 | ppl 16.30
  7. | epoch 1 | 1400/ 2981 batches | lr 5.00 | ms/batch 28.91 | loss 2.67 | ppl 14.38
  8. | epoch 1 | 1600/ 2981 batches | lr 5.00 | ms/batch 28.92 | loss 2.58 | ppl 13.19
  9. | epoch 1 | 1800/ 2981 batches | lr 5.00 | ms/batch 28.91 | loss 2.43 | ppl 11.32
  10. | epoch 1 | 2000/ 2981 batches | lr 5.00 | ms/batch 28.92 | loss 2.39 | ppl 10.93
  11. | epoch 1 | 2200/ 2981 batches | lr 5.00 | ms/batch 28.91 | loss 2.33 | ppl 10.24
  12. | epoch 1 | 2400/ 2981 batches | lr 5.00 | ms/batch 28.91 | loss 2.36 | ppl 10.59
  13. | epoch 1 | 2600/ 2981 batches | lr 5.00 | ms/batch 28.90 | loss 2.33 | ppl 10.31
  14. | epoch 1 | 2800/ 2981 batches | lr 5.00 | ms/batch 28.92 | loss 2.26 | ppl 9.54
  15. -----------------------------------------------------------------------------------------
  16. | end of epoch 1 | time: 90.01s | valid loss 1.32 | valid ppl 3.73
  17. -----------------------------------------------------------------------------------------
  18. | epoch 2 | 200/ 2981 batches | lr 4.75 | ms/batch 29.08 | loss 2.18 | ppl 8.83
  19. | epoch 2 | 400/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 2.11 | ppl 8.24
  20. | epoch 2 | 600/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 1.98 | ppl 7.23
  21. | epoch 2 | 800/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 2.00 | ppl 7.39
  22. | epoch 2 | 1000/ 2981 batches | lr 4.75 | ms/batch 28.94 | loss 1.94 | ppl 6.96
  23. | epoch 2 | 1200/ 2981 batches | lr 4.75 | ms/batch 28.92 | loss 1.97 | ppl 7.15
  24. | epoch 2 | 1400/ 2981 batches | lr 4.75 | ms/batch 28.94 | loss 1.98 | ppl 7.28
  25. | epoch 2 | 1600/ 2981 batches | lr 4.75 | ms/batch 28.92 | loss 1.97 | ppl 7.16
  26. | epoch 2 | 1800/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 1.92 | ppl 6.84
  27. | epoch 2 | 2000/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 1.96 | ppl 7.11
  28. | epoch 2 | 2200/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 1.92 | ppl 6.80
  29. | epoch 2 | 2400/ 2981 batches | lr 4.75 | ms/batch 28.94 | loss 1.94 | ppl 6.93
  30. | epoch 2 | 2600/ 2981 batches | lr 4.75 | ms/batch 28.76 | loss 1.91 | ppl 6.76
  31. | epoch 2 | 2800/ 2981 batches | lr 4.75 | ms/batch 28.75 | loss 1.89 | ppl 6.64
  32. -----------------------------------------------------------------------------------------
  33. | end of epoch 2 | time: 89.71s | valid loss 1.01 | valid ppl 2.74
  34. -----------------------------------------------------------------------------------------
  35. | epoch 3 | 200/ 2981 batches | lr 4.51 | ms/batch 28.88 | loss 1.78 | ppl 5.96
  36. | epoch 3 | 400/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.89 | ppl 6.59
  37. | epoch 3 | 600/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.72 | ppl 5.58
  38. | epoch 3 | 800/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.73 | ppl 5.63
  39. | epoch 3 | 1000/ 2981 batches | lr 4.51 | ms/batch 28.73 | loss 1.65 | ppl 5.22
  40. | epoch 3 | 1200/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.69 | ppl 5.40
  41. | epoch 3 | 1400/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.73 | ppl 5.66
  42. | epoch 3 | 1600/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.75 | ppl 5.73
  43. | epoch 3 | 1800/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.67 | ppl 5.33
  44. | epoch 3 | 2000/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.69 | ppl 5.41
  45. | epoch 3 | 2200/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.66 | ppl 5.26
  46. | epoch 3 | 2400/ 2981 batches | lr 4.51 | ms/batch 28.76 | loss 1.69 | ppl 5.43
  47. | epoch 3 | 2600/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.71 | ppl 5.55
  48. | epoch 3 | 2800/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.72 | ppl 5.58
  49. -----------------------------------------------------------------------------------------
  50. | end of epoch 3 | time: 89.26s | valid loss 0.85 | valid ppl 2.33
  51. ---------------------------------------------------------------------------------------
  • 模型测试代码分析:
  1. # 我们仍然使用evaluate函数,这次它的参数是best_model以及测试数据
  2. test_loss = evaluate(best_model, test_data)
  3. # 打印测试日志,包括测试损失和测试困惑度
  4. print('=' * 89)
  5. print('| End of training | test loss {:5.2f} | test ppl {:8.2f}'.format(
  6. test_loss, math.exp(test_loss)))
  7. print('=' * 89)
  • 输出效果:
  1. =========================================================================================
  2. | End of training | test loss 0.83 | test ppl 2.30
  3. =========================================================================================

小节总结

  • 学习了什么是语言模型:
    • 以一个符合语言规律的序列为输入,模型将利用序列间关系等特征,输出一个在所有词汇上的概率分布.这样的模型称为语言模型.

  • 学习了语言模型能解决哪些问题:
    • 1, 根据语言模型的定义,可以在它的基础上完成机器翻译,文本生成等任务,因为我们通过最后输出的概率分布来预测下一个词汇是什么.
    • 2, 语言模型可以判断输入的序列是否为一句完整的话,因为我们可以根据输出的概率分布查看最大概率是否落在句子结束符上,来判断完整性.
    • 3, 语言模型本身的训练目标是预测下一个词,因为它的特征提取部分会抽象很多语言序列之间的关系,这些关系可能同样对其他语言类任务有效果.因此可以作为预训练模型进行迁移学习.

  • 学习并实现了整个案例的五个步骤:
    • 第一步: 导入必备的工具包
    • 第二步: 导入wikiText-2数据集并作基本处理
    • 第三步: 构建用于模型输入的批次化数据
    • 第四步: 构建训练和评估函数
    • 第五步: 进行训练和评估(包括验证以及测试)

  • 第一步: 导入必备的工具包
    • torchtext介绍: 它是torch工具中处理NLP问题的常用数据处理包.
    • 对文本数据进行处理, 比如文本语料加载, 文本迭代器构建等.
    • 包含很多经典文本语料的预加载方法. 其中包括的语料有:用于情感分析的SST和IMDB, 用于问题分类的TREC, 用于及其翻译的 WMT14, IWSLT,以及用于语言模型任务wikiText-2, WikiText103, PennTreebank.
    • wikiText-2数据集的体量中等, 训练集共有600篇短文, 共208万左右的词汇, 33278个不重复词汇, OvV(有多少正常英文词汇不在该数据集中的占比)为2.6%,数据集中的短文都是维基百科中对一些概念的介绍和描述.

  • 第二步: 导入wikiText-2数据集并作基本处理
    • 通过torchtext中的方法获得了train_txt, val_txt, test_txt.

  • 第三步: 构建用于模型输入的批次化数据
    • 实现了批次化过程的第一个函数batchify, 用于将文本数据映射成连续数字, 并转换成指定的样式.
    • 实现了批次化过程的第二个函数get_batch, 用于获得每个批次合理大小的源数据和目标数据.

  • 第四步: 构建训练和评估函数
    • 构建了用于训练的函数train()
    • 构建了用于评估的函数evaluate()

  • 第五步: 进行训练和评估(包括验证以及测试)
    • 首先实现了模型训练与验证过程, 并打印了结果.
    • 最后实现了模型的测试过程, 得到了不错的困惑度指标.
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/360975
推荐阅读
相关标签
  

闽ICP备14008679号