当前位置:   article > 正文

基于transformer实现机器翻译<日——中>_vocab' object has no attribute 'stoi

vocab' object has no attribute 'stoi

目录

Part1:写在最前面

1.训练平台的选择

2.使用Kaggle时需要注意

Part2 具体实现

一、数据预处理

1.导入需要的库

2.获取并行数据集

​​编辑

3.准备分词器

4.构建词汇表和张量

5.创建用于训练时迭代的 DataLoader 对象

二、transformer模型的实现

1.构建模型

2.位置编码和词嵌入

3.生成掩码

4.定义参数、实例化transformer模型并定义训练、评估函数

三、训练模型

四、使用训练后的模型翻译日语

五、保存Vocab对象和训练的模型


Part1:写在最前面

1.训练平台的选择

这个需要用到GPU来运行,关于GPU的平台:

AutoDL算力云AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL(需要充钱租GPU,自己配置实验环境,本人充了10元,搭了一下午+一晚上的环境,没搞好)

KaggleKaggle: Your Machine Learning and Data Science Community(不需要花钱,也不需要自己配置实验环境,但是每周只有30小时的GPU使用时间)

关于kaggle平台的注册在本人写的另一篇博客中:Kaggle的使用分享-CSDN博客

如果电脑上面有运行内存大于8GB的GPU,可以在自己电脑上实现,关于如何配置在本人写的另一篇博客中:安装Pytorch-CSDN博客

2.使用Kaggle时需要注意

由于Kaggle平台不需要自己配置环境,可以认为是带GPU的希冀平台,但我们这次内容的实现对包的版本有严格的要求,很容易出现由于版本不符而代码出现错误的情况!!!(但是代码本身是没有任何错误的!)

一定要确保torchtext==0.6.0 sentencepiece==0.2.0

在导入必要的库之前,先执行命令

!pip install torchtext==0.6.0

(sentencepiece也是使用这样的命令)

然后再导入需要用到的库

然后执行命令

  1. #import torchtext
  2. torchtext.__version__

这是为了确保当前的kernal中使用的torchtext就是0.6.0 !!!(一定要查看,本人亲身经历,降了好几次的版本,0.6.0和0.4.0都下载了,后面的代码还是由于版本问题报错,导致浪费了很多时间)

如果执行命令发现torchtext的版本不是0.6.0,那么重新启动内核运行

再次执行上面的步骤,然后检查当前kernal使用的torchtext版本

如果torchtext版本不是0.6.0的话,会出现很多错误,出现的错误如下:

(1)"大小写"

解决办法:导入库时“from torchtext.vocab import Vocab”改为“from torchtext.vocab import vocab”,return Vocab(counter, specials=['<unk>', '<pad>', '<bos>', '<eos>'])改为return vocab(counter, specials=['<unk>', '<pad>', '<bos>', '<eos>'])

但是这个代码如果torchtext==0.6.0时是没有问题的,这仅仅是由于版本带来的问题!

(2)调用translate函数时:AttributeError: 'Vocab' object has no attribute 'stoi'

​这个错误的解决方法,就是将torchtext的版本设为0.6.0

所以综合(1)(2)来看,事先将torchtext==0.6.0是最佳选择,也是必要选择!!!

除了上面两个错误之外,还会出现一个错误,不过不重要,无非就是索引号和对应的文字

​直接将out_type='str'删去即可,这样输出的是索引号

​如果要查看对应的文字(字段),可以使用下面的代码

  1. input_ids = en_tokenizer.encode("All residents aged 20 to 59 years who live in Japan must enroll in public pension system.")
  2. print(input_ids)
  3. decoded_pieces = en_tokenizer.DecodeIds(input_ids)
  4. print(decoded_pieces.split())

Part2 具体实现

一、数据预处理

1.导入需要的库

  1. #导入需要的库
  2. import math
  3. import torchtext
  4. import torch
  5. import torch.nn as nn
  6. from torch import Tensor
  7. from torch.nn.utils.rnn import pad_sequence
  8. from torch.utils.data import DataLoader
  9. from collections import Counter
  10. from torchtext.vocab import Vocab
  11. from torch.nn import TransformerEncoder, TransformerDecoder, TransformerEncoderLayer, TransformerDecoderLayer
  12. import io
  13. import time
  14. import pandas as pd
  15. import numpy as np
  16. import pickle
  17. import tqdm
  18. import sentencepiece as spm
  19. torch.manual_seed(0)
  20. device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
  21. # print(torch.cuda.get_device_name(0)) ## 如果你有GPU,请在你自己的电脑上尝试运行这一套代码
device

2.获取并行数据集

数据集链接:https://pan.baidu.com/s/13A8GmB_IluGSXBnOqH4uIg?pwd=hrnp 提取码: hrnp 

  1. import pandas as pd
  2. # 使用 Pandas 读取文本文件,分隔符为制表符 \t,使用 Python 引擎解析
  3. df = pd.read_csv('zh-ja.bicleaner05.txt', sep='\\t', engine='python', header=None)
  4. # 获取第2列(索引为2)作为中文训练数据,转换为列表
  5. trainen = df[2].values.tolist() # 如果需要只获取部分数据,可以使用切片如 trainen[:10000]
  6. # 获取第3列(索引为3)作为日文训练数据,转换为列表
  7. trainja = df[3].values.tolist() # 如果需要只获取部分数据,可以使用切片如 trainja[:10000]
  8. # 如果你需要移除特定索引(如索引为5972)的数据,可以使用 pop 方法
  9. # trainen.pop(5972)
  10. # trainja.pop(5972)

注:代码中的en<英文>理解为zh<中文>,因为我们的目的是日译中,而非日译英

  1. #打印出 trainen 和 trainja 中索引为为500 的数据
  2. print(trainen[500])
  3. print(trainja[500])

3.准备分词器

链接: https://pan.baidu.com/s/1L-b9jiCzplj58k70MNUVuQ?pwd=k2e3 提取码: k2e3 

与英语或其他字母语言不同,日语句子中不包含用于分隔单词的空格。我们可以使用JParaCrawl提供的分词器,该分词器是使用SentencePiece为日语和英语创建的,可以通过访问JParaCrawl网站来下载它们

(这里我们使用英文的分词器训练中文,大家可以选择其他的中文分词器)

  1. #使用 SentencePiece 库来加载预训练的分词模型(模型文件名为 spm.en.nopretok.model 和 spm.ja.nopretok.model),
  2. #并将它们分别赋值给 en_tokenizer 和 ja_tokenizer 变量
  3. en_tokenizer = spm.SentencePieceProcessor(model_file='spm.en.nopretok.model')
  4. ja_tokenizer = spm.SentencePieceProcessor(model_file='spm.ja.nopretok.model')

加载分词器模型之后,可以通过以下代码来测试它们

  1. en_tokenizer.encode("所有的居民 aged 20 to 59 years who live in Japan must enroll in public pension system.", out_type='str')
  2. ja_tokenizer.encode("年金 日本に住んでいる20歳~60歳の全ての人は、公的年金制度に加入しなければなりません。", out_type='str')

4.构建词汇表和张量

  1. def build_vocab(sentences, tokenizer):
  2. counter = Counter()
  3. for sentence in sentences:
  4. counter.update(tokenizer.encode(sentence, out_type=str))
  5. return Vocab(counter, specials=['<unk>', '<pad>', '<bos>', '<eos>'])
  6. # 使用日语分词器(ja_tokenizer)构建日语词汇表
  7. ja_vocab = build_vocab(trainja, ja_tokenizer)
  8. # 使用英语分词器(en_tokenizer)构建中文词汇表
  9. en_vocab = build_vocab(trainen, en_tokenizer)

利用词汇表和分词器来构建训练数据张量

  1. def data_process(ja, en):
  2. data = []
  3. for (raw_ja, raw_en) in zip(ja, en):
  4. ja_tensor = torch.tensor([ja_vocab[token] for token in ja_tokenizer.encode(raw_ja.rstrip("\n"), out_type=str)],
  5. dtype=torch.long)
  6. en_tensor = torch.tensor([en_vocab[token] for token in en_tokenizer.encode(raw_en.rstrip("\n"), out_type=str)],
  7. dtype=torch.long)
  8. data.append((ja_tensor, en_tensor))
  9. return data
  10. # 将训练数据 trainja 和 trainen 转换为张量形式
  11. train_data = data_process(trainja, trainen)

5.创建用于训练时迭代的 DataLoader 对象

  将 BATCH_SIZE 设置为 16,以防止“cuda out of memory”错误。但是实际的 BATCH_SIZE 可能会受到诸如计算机内存容量、数据大小等因素的影响,因此根据实际需求自由调整批处理大小

  1. BATCH_SIZE = 8 # 批处理大小
  2. PAD_IDX = ja_vocab['<pad>'] # 填充词索引
  3. BOS_IDX = ja_vocab['<bos>'] # 句子开头索引
  4. EOS_IDX = ja_vocab['<eos>'] # 句子结尾索引
  5. # 定义生成批次数据的函数
  6. def generate_batch(data_batch):
  7. ja_batch, en_batch = [], []
  8. for (ja_item, en_item) in data_batch:
  9. # 在每个句子的开头和结尾添加起始和结束标记,并拼接成张量
  10. ja_batch.append(torch.cat([torch.tensor([BOS_IDX]), ja_item, torch.tensor([EOS_IDX])], dim=0))
  11. en_batch.append(torch.cat([torch.tensor([BOS_IDX]), en_item, torch.tensor([EOS_IDX])], dim=0))
  12. # 对所有句子进行填充,使它们具有相同的长度
  13. ja_batch = pad_sequence(ja_batch, padding_value=PAD_IDX)
  14. en_batch = pad_sequence(en_batch, padding_value=PAD_IDX)
  15. return ja_batch, en_batch
  16. # 创建 DataLoader 对象,用于批处理训练数据
  17. train_iter = DataLoader(train_data, batch_size=BATCH_SIZE,
  18. shuffle=True, collate_fn=generate_batch)

二、transformer模型的实现

Transformer是一种Seq2Seq模型,用于解决机器翻译任务。Transformer模型包含一个编码器和一个解码器模块,每个模块都包含固定数量的层。

编码器通过一系列的多头注意力和前馈网络层处理输入序列。编码器的输出被称为“记忆”,与目标张量一起被传递给解码器。编码器和解码器使用教师强制技术进行端到端训练。

1.构建模型

  1. from torch.nn import (TransformerEncoder, TransformerDecoder,
  2. TransformerEncoderLayer, TransformerDecoderLayer)
  3. class Seq2SeqTransformer(nn.Module):
  4. def __init__(self, num_encoder_layers: int, num_decoder_layers: int,
  5. emb_size: int, src_vocab_size: int, tgt_vocab_size: int,
  6. dim_feedforward:int = 512, dropout:float = 0.1):
  7. super(Seq2SeqTransformer, self).__init__()
  8. # 创建一个Transformer编码器层
  9. encoder_layer = TransformerEncoderLayer(d_model=emb_size, nhead=NHEAD,
  10. dim_feedforward=dim_feedforward)
  11. # 创建一个Transformer编码器,它包含多个编码器层
  12. self.transformer_encoder = TransformerEncoder(encoder_layer, num_layers=num_encoder_layers)
  13. # 创建一个Transformer解码器层
  14. decoder_layer = TransformerDecoderLayer(d_model=emb_size, nhead=NHEAD,
  15. dim_feedforward=dim_feedforward)
  16. # 创建一个Transformer解码器,它包含多个解码器层
  17. self.transformer_decoder = TransformerDecoder(decoder_layer, num_layers=num_decoder_layers)
  18. # 创建一个线性层作为生成器,用于最终输出预测的目标词汇
  19. self.generator = nn.Linear(emb_size, tgt_vocab_size)
  20. # 创建源语言和目标语言的token嵌入层
  21. self.src_tok_emb = TokenEmbedding(src_vocab_size, emb_size)
  22. self.tgt_tok_emb = TokenEmbedding(tgt_vocab_size, emb_size)
  23. # 创建位置编码器,用于为序列中的词嵌入添加位置信息
  24. self.positional_encoding = PositionalEncoding(emb_size, dropout=dropout)
  25. def forward(self, src: Tensor, trg: Tensor, src_mask: Tensor,
  26. tgt_mask: Tensor, src_padding_mask: Tensor,
  27. tgt_padding_mask: Tensor, memory_key_padding_mask: Tensor):
  28. """
  29. 前向传播函数,用于执行完整的序列到序列转换任务。
  30. 参数:
  31. src (Tensor): 输入源序列张量,形状为 (src_len, batch_size).
  32. trg (Tensor): 输入目标序列张量,形状为 (trg_len, batch_size).
  33. src_mask (Tensor): 源序列的填充遮挡张量,形状为 (src_len, src_len).
  34. tgt_mask (Tensor): 目标序列的解码器遮挡张量,形状为 (trg_len, trg_len).
  35. src_padding_mask (Tensor): 源序列的填充遮挡张量,形状为 (batch_size, src_len).
  36. tgt_padding_mask (Tensor): 目标序列的填充遮挡张量,形状为 (batch_size, trg_len).
  37. memory_key_padding_mask (Tensor): 编码器记忆的填充遮挡张量,形状为 (batch_size, src_len).
  38. 返回:
  39. Tensor: 经过生成器线性层生成的输出张量,形状为 (trg_len, batch_size, tgt_vocab_size).
  40. """
  41. # 对源语言序列进行嵌入和位置编码
  42. src_emb = self.positional_encoding(self.src_tok_emb(src))
  43. # 对目标语言序列进行嵌入和位置编码
  44. tgt_emb = self.positional_encoding(self.tgt_tok_emb(trg))
  45. # 使用Transformer编码器对源语言序列进行编码
  46. memory = self.transformer_encoder(src_emb, src_mask, src_padding_mask)
  47. # 使用Transformer解码器对目标语言序列进行解码
  48. outs = self.transformer_decoder(tgt_emb, memory, tgt_mask, None,
  49. tgt_padding_mask, memory_key_padding_mask)
  50. # 将解码器的输出通过生成器线性层得到最终的预测输出
  51. return self.generator(outs)
  52. def encode(self, src: Tensor, src_mask: Tensor):
  53. """
  54. 编码器函数,用于对源语言序列进行编码。
  55. 参数:
  56. src (Tensor): 输入源序列张量,形状为 (src_len, batch_size).
  57. src_mask (Tensor): 源序列的填充遮挡张量,形状为 (src_len, src_len).
  58. 返回:
  59. Tensor: 经过编码器处理后的记忆张量,形状为 (src_len, batch_size, emb_size).
  60. """
  61. # 对源语言序列进行嵌入和位置编码,然后通过Transformer编码器处理
  62. return self.transformer_encoder(self.positional_encoding(
  63. self.src_tok_emb(src)), src_mask)
  64. def decode(self, tgt: Tensor, memory: Tensor, tgt_mask: Tensor):
  65. """
  66. 解码器函数,用于对目标语言序列进行解码。
  67. 参数:
  68. tgt (Tensor): 输入目标序列张量,形状为 (trg_len, batch_size).
  69. memory (Tensor): 编码器记忆张量,形状为 (src_len, batch_size, emb_size).
  70. tgt_mask (Tensor): 目标序列的解码器遮挡张量,形状为 (trg_len, trg_len).
  71. 返回:
  72. Tensor: 经过解码器处理后的输出张量,形状为 (trg_len, batch_size, emb_size).
  73. """
  74. # 对目标语言序列进行嵌入和位置编码,然后通过Transformer解码器处理
  75. return self.transformer_decoder(self.positional_encoding(
  76. self.tgt_tok_emb(tgt)), memory,
  77. tgt_mask)

2.位置编码和词嵌入

文本标记通过使用标记嵌入来表示。为了引入词序的概念,位置编码被添加到标记嵌入中。

  1. class PositionalEncoding(nn.Module):
  2. def __init__(self, emb_size: int, dropout, maxlen: int = 5000):
  3. super(PositionalEncoding, self).__init__()
  4. # 初始化位置编码矩阵
  5. den = torch.exp(- torch.arange(0, emb_size, 2) * math.log(10000) / emb_size)
  6. pos = torch.arange(0, maxlen).reshape(maxlen, 1)
  7. pos_embedding = torch.zeros((maxlen, emb_size))
  8. # 计算位置编码的正弦和余弦值
  9. pos_embedding[:, 0::2] = torch.sin(pos * den)
  10. pos_embedding[:, 1::2] = torch.cos(pos * den)
  11. # 扩展维度以便与输入张量相加
  12. pos_embedding = pos_embedding.unsqueeze(-2)
  13. # 注册为模型的缓冲区,避免在反向传播时被更新
  14. self.register_buffer('pos_embedding', pos_embedding)
  15. # 定义dropout层
  16. self.dropout = nn.Dropout(dropout)
  17. def forward(self, token_embedding: torch.Tensor):
  18. """
  19. 前向传播函数
  20. 参数:
  21. token_embedding (torch.Tensor): 形状为 (seq_len, batch_size, emb_size) 的输入张量
  22. 返回:
  23. torch.Tensor: 添加了位置编码的张量,形状与输入张量相同 (seq_len, batch_size, emb_size)
  24. """
  25. # 将位置编码与输入的token_embedding相加,并应用dropout
  26. return self.dropout(token_embedding + self.pos_embedding[:token_embedding.size(0), :])
  27. class TokenEmbedding(nn.Module):
  28. def __init__(self, vocab_size: int, emb_size):
  29. super(TokenEmbedding, self).__init__()
  30. # 定义词嵌入层
  31. self.embedding = nn.Embedding(vocab_size, emb_size)
  32. self.emb_size = emb_size
  33. def forward(self, tokens: torch.Tensor):
  34. """
  35. 前向传播函数
  36. 参数:
  37. tokens (torch.Tensor): 形状为 (seq_len, batch_size) 的输入张量,包含了token的索引
  38. 返回:
  39. torch.Tensor: 形状为 (seq_len, batch_size, emb_size) 的词嵌入张量
  40. """
  41. # 获取词嵌入,并按照论文中的建议对词嵌入进行缩放
  42. return self.embedding(tokens.long()) * math.sqrt(self.emb_size)

3.生成掩码

创建后续词掩码,以阻止目标词汇关注其后续词汇。创建掩码,用于掩盖源和目标填充标记。

  1. def generate_square_subsequent_mask(sz):
  2. """
  3. 生成一个下三角矩阵,用于屏蔽未来信息。
  4. 参数:
  5. sz (int): 方阵的大小
  6. 返回:
  7. torch.Tensor: 下三角掩码张量,形状为 (sz, sz),数据类型为 float
  8. """
  9. # 生成全为1的方阵
  10. mask = (torch.triu(torch.ones((sz, sz), device=device)) == 1).transpose(0, 1)
  11. # 将掩码转换为浮点型,并将为0的位置用负无穷大替换,为1的位置用0.0替换
  12. mask = mask.float().masked_fill(mask == 0, float('-inf')).masked_fill(mask == 1, float(0.0))
  13. return mask
  14. def create_mask(src, tgt):
  15. """
  16. 创建用于掩盖源和目标填充标记的掩码。
  17. 参数:
  18. src (torch.Tensor): 形状为 (src_seq_len, batch_size) 的源张量
  19. tgt (torch.Tensor): 形状为 (tgt_seq_len, batch_size) 的目标张量
  20. 返回:
  21. torch.Tensor: 源掩码,形状为 (src_seq_len, src_seq_len),数据类型为 bool
  22. torch.Tensor: 目标掩码,形状为 (tgt_seq_len, tgt_seq_len),数据类型为 float
  23. torch.Tensor: 源填充标记掩码,形状为 (batch_size, src_seq_len),数据类型为 bool
  24. torch.Tensor: 目标填充标记掩码,形状为 (batch_size, tgt_seq_len),数据类型为 bool
  25. """
  26. src_seq_len = src.shape[0] # 获取源序列长度
  27. tgt_seq_len = tgt.shape[0] # 获取目标序列长度
  28. # 生成目标序列的掩码,防止目标单词关注其后续单词
  29. tgt_mask = generate_square_subsequent_mask(tgt_seq_len)
  30. # 创建一个全零张量作为源序列的掩码,形状为 (src_seq_len, src_seq_len)
  31. src_mask = torch.zeros((src_seq_len, src_seq_len), device=device).type(torch.bool)
  32. # 生成源序列的填充标记掩码,将填充标记的位置设为True
  33. src_padding_mask = (src == PAD_IDX).transpose(0, 1)
  34. # 生成目标序列的填充标记掩码,将填充标记的位置设为True
  35. tgt_padding_mask = (tgt == PAD_IDX).transpose(0, 1)
  36. return src_mask, tgt_mask, src_padding_mask, tgt_padding_mask

4.定义参数、实例化transformer模型并定义训练、评估函数

  1. SRC_VOCAB_SIZE = len(ja_vocab) # 源语言词汇表大小
  2. TGT_VOCAB_SIZE = len(en_vocab) # 目标语言词汇表大小
  3. EMB_SIZE = 512 # 词嵌入维度
  4. NHEAD = 8 # 头数(Transformer中的注意力头数)
  5. FFN_HID_DIM = 512 # 前馈神经网络隐藏层维度
  6. BATCH_SIZE = 16 # 批量大小
  7. NUM_ENCODER_LAYERS = 3 # 编码器层数
  8. NUM_DECODER_LAYERS = 3 # 解码器层数
  9. NUM_EPOCHS = 16 # 训练轮数
  10. # 初始化Seq2SeqTransformer模型
  11. transformer = Seq2SeqTransformer(NUM_ENCODER_LAYERS, NUM_DECODER_LAYERS,
  12. EMB_SIZE, SRC_VOCAB_SIZE, TGT_VOCAB_SIZE,
  13. FFN_HID_DIM)
  14. # 对模型参数进行Xavier初始化
  15. for p in transformer.parameters():
  16. if p.dim() > 1:
  17. nn.init.xavier_uniform_(p)
  18. transformer = transformer.to(device) # 将模型移动到设备上
  19. # 定义交叉熵损失函数,忽略填充标记的损失计算
  20. loss_fn = torch.nn.CrossEntropyLoss(ignore_index=PAD_IDX)
  21. # 定义Adam优化器
  22. optimizer = torch.optim.Adam(
  23. transformer.parameters(), lr=0.0001, betas=(0.9, 0.98), eps=1e-9
  24. )
  25. def train_epoch(model, train_iter, optimizer):
  26. """
  27. 训练模型一个epoch。
  28. 参数:
  29. model (Seq2SeqTransformer): 要训练的Seq2SeqTransformer模型
  30. train_iter (torch.utils.data.DataLoader): 训练数据迭代器
  31. optimizer (torch.optim.Adam): 优化器
  32. 返回:
  33. float: epoch的平均损失
  34. """
  35. model.train() # 设置模型为训练模式
  36. losses = 0
  37. for idx, (src, tgt) in enumerate(train_iter):
  38. src = src.to(device) # 将源语言数据移动到设备上
  39. tgt = tgt.to(device) # 将目标语言数据移动到设备上
  40. tgt_input = tgt[:-1, :] # 去除tgt最后一个标记,作为解码器的输入
  41. # 创建源掩码、目标掩码和填充标记掩码
  42. src_mask, tgt_mask, src_padding_mask, tgt_padding_mask = create_mask(src, tgt_input)
  43. # 前向传播获取预测结果logits
  44. logits = model(src, tgt_input, src_mask, tgt_mask,
  45. src_padding_mask, tgt_padding_mask, src_padding_mask)
  46. optimizer.zero_grad() # 梯度清零
  47. tgt_out = tgt[1:, :] # 去除tgt第一个标记,作为损失计算的目标值
  48. # 计算损失
  49. loss = loss_fn(logits.reshape(-1, logits.shape[-1]), tgt_out.reshape(-1))
  50. loss.backward() # 反向传播计算梯度
  51. optimizer.step() # 更新模型参数
  52. losses += loss.item() # 累加损失值
  53. return losses / len(train_iter) # 返回平均损失
  54. def evaluate(model, val_iter):
  55. """
  56. 评估模型在验证集上的性能。
  57. 参数:
  58. model (Seq2SeqTransformer): 要评估的Seq2SeqTransformer模型
  59. val_iter (torch.utils.data.DataLoader): 验证数据迭代器
  60. 返回:
  61. float: 验证集的平均损失
  62. """
  63. model.eval() # 设置模型为评估模式
  64. losses = 0
  65. for idx, (src, tgt) in enumerate(val_iter):
  66. src = src.to(device) # 将源语言数据移动到设备上
  67. tgt = tgt.to(device) # 将目标语言数据移动到设备上
  68. tgt_input = tgt[:-1, :] # 去除tgt最后一个标记,作为解码器的输入
  69. # 创建源掩码、目标掩码和填充标记掩码
  70. src_mask, tgt_mask, src_padding_mask, tgt_padding_mask = create_mask(src, tgt_input)
  71. # 前向传播获取预测结果logits
  72. logits = model(src, tgt_input, src_mask, tgt_mask,
  73. src_padding_mask, tgt_padding_mask, src_padding_mask)
  74. tgt_out = tgt[1:, :] # 去除tgt第一个标记,作为损失计算的目标值
  75. # 计算损失
  76. loss = loss_fn(logits.reshape(-1, logits.shape[-1]), tgt_out.reshape(-1))
  77. losses += loss.item() # 累加损失值
  78. return losses / len(val_iter) # 返回平均损失

三、训练模型

在准备好必要的类和函数之后,开始训练模型

  1. # 循环训练每个epoch
  2. for epoch in tqdm.tqdm(range(1, NUM_EPOCHS + 1)):
  3. start_time = time.time() # 记录当前epoch开始时间
  4. # 训练一个epoch,并计算训练损失
  5. train_loss = train_epoch(transformer, train_iter, optimizer)
  6. end_time = time.time() # 记录当前epoch结束时间
  7. # 打印当前epoch的训练损失和训练时间
  8. print(f"Epoch: {epoch}, Train loss: {train_loss:.3f}, Epoch time = {(end_time - start_time):.3f}s")

四、使用训练后的模型翻译日语

我们需要创建一些函数来翻译一条新的句子,包括以下步骤:获取日语句子、进行分词、转换为张量、推理(inference),然后将结果解码回一个中文句子

  1. def greedy_decode(model, src, src_mask, max_len, start_symbol):
  2. """
  3. 使用贪婪解码生成目标序列。
  4. Args:
  5. - model: Transformer模型
  6. - src: 源语言张量序列
  7. - src_mask: 源语言的掩码,用于遮盖填充部分
  8. - max_len: 生成序列的最大长度
  9. - start_symbol: 目标语言序列的起始符号索引
  10. Returns:
  11. - ys: 生成的目标语言序列张量
  12. """
  13. src = src.to(device) # 将源语言张量移到指定设备上
  14. src_mask = src_mask.to(device) # 将源语言掩码移到指定设备上
  15. memory = model.encode(src, src_mask) # 编码源语言序列得到记忆
  16. ys = torch.ones(1, 1).fill_(start_symbol).type(torch.long).to(device) # 初始化目标语言序列张量,以起始符号开始
  17. for i in range(max_len-1):
  18. memory = memory.to(device)
  19. memory_mask = torch.zeros(ys.shape[0], memory.shape[0]).to(device).type(torch.bool) # 创建记忆掩码
  20. tgt_mask = (generate_square_subsequent_mask(ys.size(0))
  21. .type(torch.bool)).to(device) # 创建目标语言序列的掩码
  22. out = model.decode(ys, memory, tgt_mask) # 解码得到输出
  23. out = out.transpose(0, 1) # 调整输出张量的维度顺序
  24. prob = model.generator(out[:, -1]) # 生成下一个词的概率分布
  25. _, next_word = torch.max(prob, dim=1) # 获取概率最大的下一个词的索引
  26. next_word = next_word.item() # 转换为Python标量
  27. ys = torch.cat([ys,
  28. torch.ones(1, 1).type_as(src.data).fill_(next_word)], dim=0) # 将预测的下一个词添加到目标语言序列中
  29. if next_word == EOS_IDX:
  30. break # 如果预测的下一个词是终止符号,停止生成
  31. return ys
  32. def translate(model, src, src_vocab, tgt_vocab, src_tokenizer):
  33. """
  34. 对源语言句子进行翻译成目标语言。
  35. Args:
  36. - model: Transformer模型
  37. - src: 源语言句子(字符串)
  38. - src_vocab: 源语言词汇表
  39. - tgt_vocab: 目标语言词汇表
  40. - src_tokenizer: 源语言的分词器
  41. Returns:
  42. - 翻译后的目标语言句子(字符串)
  43. """
  44. model.eval() # 设置模型为评估模式
  45. # 对源语言句子进行分词并转换为词汇表索引
  46. tokens = [BOS_IDX] + [src_vocab.stoi[tok] for tok in src_tokenizer.encode(src, out_type=str)] + [EOS_IDX]
  47. num_tokens = len(tokens)
  48. src = torch.LongTensor(tokens).reshape(num_tokens, 1) # 将分词后的源语言序列转换为张量
  49. src_mask = torch.zeros(num_tokens, num_tokens).type(torch.bool) # 创建源语言的掩码
  50. # 使用贪婪解码生成目标语言序列的张量表示
  51. tgt_tokens = greedy_decode(model, src, src_mask, max_len=num_tokens + 5, start_symbol=BOS_IDX).flatten()
  52. # 将生成的目标语言序列张量转换为字符串并去除特殊标记
  53. translated_sentence = " ".join([tgt_vocab.itos[tok] for tok in tgt_tokens]).replace("<bos>", "").replace("<eos>", "")
  54. return translated_sentence

调用 translate 函数进行翻译并传递所需的参数

  1. #翻译
  2. translate(transformer, "この報を受けたNHKの取材チームがすぐに調査を開始し、魚の研究者である国立科学博物館の松浦啓一氏が研究を行った。)", ja_vocab, en_vocab, ja_tokenizer)

  1. trainen.pop(5) # 从 trainen 列表中移除索引为 5 的元素
  2. trainja.pop(5) # 从 trainja 列表中移除索引为 5 的元素

五、保存Vocab对象和训练的模型

在训练完成后,我们首先使用Pickle保存Vocab对象(envocab和javocab)。

  1. import pickle
  2. # 打开一个文件,用于存储数据
  3. file = open('en_vocab.pkl', 'wb')
  4. # 使用pickle将英语词汇表(en_vocab)存储到文件中
  5. pickle.dump(en_vocab, file)
  6. # 关闭文件
  7. file.close()
  8. # 打开另一个文件,用于存储数据
  9. file = open('ja_vocab.pkl', 'wb')
  10. # 使用pickle将日语词汇表(ja_vocab)存储到文件中
  11. pickle.dump(ja_vocab, file)
  12. # 关闭文件
  13. file.close()

 使用PyTorch的保存和加载功能来保存模型以供以后使用。通常,根据我们稍后想要使用模型的方式,有两种保存模型的方法。第一种是仅用于推理,我们可以稍后加载模型并用它来从日语翻译成中文

  1. # 保存用于推理(预测)的模型
  2. torch.save(transformer.state_dict(), 'inference_model')

第二种方法也是用于推理(预测),但同时也适用于稍后加载模型并恢复训练的情况。

  1. # 保存模型和检查点,以便稍后恢复训练
  2. torch.save({
  3. 'epoch': NUM_EPOCHS, # 保存当前训练的轮数(epoch)
  4. 'model_state_dict': transformer.state_dict(), # 保存模型的状态字典,包括所有的参数
  5. 'optimizer_state_dict': optimizer.state_dict(), # 保存优化器的状态字典,包括所有的优化器参数
  6. 'loss': train_loss, # 保存当前训练的损失值
  7. }, 'model_checkpoint.tar')

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/972641
推荐阅读
相关标签
  

闽ICP备14008679号