当前位置:   article > 正文

Pytorch:解码器端的Attention注意力机制、seq2seq模型架构实现英译法任务_pytorch调用attention

pytorch调用attention

日萌社

人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)


Encoder编码器-Decoder解码器框架 + Attention注意力机制

Pytorch:Transformer(Encoder编码器-Decoder解码器、多头注意力机制、多头自注意力机制、掩码张量、前馈全连接层、规范化层、子层连接结构、pyitcast) part1

Pytorch:Transformer(Encoder编码器-Decoder解码器、多头注意力机制、多头自注意力机制、掩码张量、前馈全连接层、规范化层、子层连接结构、pyitcast) part2

Pytorch:使用Transformer构建语言模型

Pytorch:解码器端的Attention注意力机制、seq2seq模型架构实现英译法任务

BahdanauAttention注意力机制、LuongAttention注意力机制

BahdanauAttention注意力机制:基于seq2seq的西班牙语到英语的机器翻译任务、解码器端的Attention注意力机制、seq2seq模型架构

图片的描述生成任务、使用迁移学习实现图片的描述生成过程、CNN编码器+RNN解码器(GRU)的模型架构、BahdanauAttention注意力机制、解码器端的Attention注意力机制

注意力机制、bmm运算

注意力机制 SENet、CBAM

机器翻译 MXNet(使用含注意力机制的编码器—解码器,即 Encoder编码器-Decoder解码器框架 + Attention注意力机制)

基于Seq2Seq的中文聊天机器人编程实践(Encoder编码器-Decoder解码器框架 + Attention注意力机制)

基于Transformer的文本情感分析编程实践(Encoder编码器-Decoder解码器框架 + Attention注意力机制 + Positional Encoding位置编码)

  1. 注意:这一文章“基于Transformer的文本情感分析编程实践(Encoder编码器-Decoder解码器框架 + Attention注意力机制 + Positional Encoding位置编码)”
  2. 该文章实现的Transformer的Model类型模型,实际是改造过的特别版的Transformer,因为Transformer的Model类型模型中只实现了Encoder编码器,
  3. 而没有对应实现的Decoder解码器,并且因为当前Transformer的Model类型模型处理的是分类任务,
  4. 所以我们此处只用了Encoder编码器来提取特征,最后通过全连接层网络来拟合分类。

2.2 使用seq2seq模型架构实现英译法任务

  • 学习目标:
    • 更深一步了解seq2seq模型架构和翻译数据集.
    • 掌握使用基于GRU的seq2seq模型架构实现翻译的过程.
    • 掌握Attention机制在解码器端的实现过程.
  • seq2seq模型架构:

  • seq2seq模型架构分析:
    • 从图中可知, seq2seq模型架构, 包括两部分分别是encoder(编码器)和decoder(解码器), 编码器和解码器的内部实现都使用了GRU模型, 这里它要完成的是一个中文到英文的翻译: 欢迎 来 北京 --> welcome to BeiJing. 编码器首先处理中文输入"欢迎 来 北京", 通过GRU模型获得每个时间步的输出张量,最后将它们拼接成一个中间语义张量c, 接着解码器将使用这个中间语义张量c以及每一个时间步的隐层张量, 逐个生成对应的翻译语言.
  • 翻译数据集
    • 下载地址: https://download.pytorch.org/tutorial/data.zip
    • 数据文件预览
  1. - data/
  2. - eng-fra.txt
  1. She feeds her dog a meat-free diet. Elle fait suivre à son chien un régime sans viande.
  2. She feeds her dog a meat-free diet. Elle fait suivre à son chien un régime non carné.
  3. She folded her handkerchief neatly. Elle plia soigneusement son mouchoir.
  4. She folded her handkerchief neatly. Elle a soigneusement plié son mouchoir.
  5. She found a need and she filled it. Elle trouva un besoin et le remplit.
  6. She gave birth to twins a week ago. Elle a donné naissance à des jumeaux il y a une semaine.
  7. She gave him money as well as food. Elle lui donna de l'argent aussi bien que de la nourriture.
  8. She gave it her personal attention. Elle y a prêté son attention personnelle.
  9. She gave me a smile of recognition. Elle m'adressa un sourire indiquant qu'elle me reconnaissait.
  10. She glanced shyly at the young man. Elle a timidement jeté un regard au jeune homme.
  11. She goes to the movies once a week. Elle va au cinéma une fois par semaine.
  12. She got into the car and drove off. Elle s'introduisit dans la voiture et partit.
  • 基于GRU的seq2seq模型架构实现翻译的过程:

    • 第一步: 导入必备的工具包.
    • 第二步: 对持久化文件中数据进行处理, 以满足模型训练要求.
    • 第三步: 构建基于GRU的编码器和解码器.
    • 第四步: 构建模型训练函数, 并进行训练.
    • 第五步: 构建模型评估函数, 并进行测试以及Attention效果分析.
  • 第一步: 导入必备的工具包
    • python版本使用3.6.x, pytorch版本使用1.3.1
  1. # 从io工具包导入open方法
  2. from io import open
  3. # 用于字符规范化
  4. import unicodedata
  5. # 用于正则表达式
  6. import re
  7. # 用于随机生成数据
  8. import random
  9. # 用于构建网络结构和函数的torch工具包
  10. import torch
  11. import torch.nn as nn
  12. import torch.nn.functional as F
  13. # torch中预定义的优化方法工具包
  14. from torch import optim
  15. # 设备选择, 我们可以选择在cuda或者cpu上运行你的代码
  16. device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

第二步: 对持久化文件中数据进行处理, 以满足模型训练要求

  • 将指定语言中的词汇映射成数值
  1. # 起始标志
  2. SOS_token = 0
  3. # 结束标志
  4. EOS_token = 1
  5. class Lang:
  6. def __init__(self, name):
  7. """初始化函数中参数name代表传入某种语言的名字"""
  8. # 将name传入类中
  9. self.name = name
  10. # 初始化词汇对应自然数值的字典
  11. self.word2index = {}
  12. # 初始化自然数值对应词汇的字典, 其中0,1对应的SOS和EOS已经在里面了
  13. self.index2word = {0: "SOS", 1: "EOS"}
  14. # 初始化词汇对应的自然数索引,这里从2开始,因为0,1已经被开始和结束标志占用了
  15. self.n_words = 2
  16. def addSentence(self, sentence):
  17. """添加句子函数, 即将句子转化为对应的数值序列, 输入参数sentence是一条句子"""
  18. # 根据一般国家的语言特性(我们这里研究的语言都是以空格分个单词)
  19. # 对句子进行分割,得到对应的词汇列表
  20. for word in sentence.split(' '):
  21. # 然后调用addWord进行处理
  22. self.addWord(word)
  23. def addWord(self, word):
  24. """添加词汇函数, 即将词汇转化为对应的数值, 输入参数word是一个单词"""
  25. # 首先判断word是否已经在self.word2index字典的key中
  26. if word not in self.word2index:
  27. # 如果不在, 则将这个词加入其中, 并为它对应一个数值,即self.n_words
  28. self.word2index[word] = self.n_words
  29. # 同时也将它的反转形式加入到self.index2word中
  30. self.index2word[self.n_words] = word
  31. # self.n_words一旦被占用之后,逐次加1, 变成新的self.n_words
  32. self.n_words += 1
  • 实例化参数
name = "eng"
  • 输入参数
sentence = "hello I am Jay"
  • 调用
  1. engl = Lang(name)
  2. engl.addSentence(sentence)
  3. print("word2index:", engl.word2index)
  4. print("index2word:", engl.index2word)
  5. print("n_words:", engl.n_words)
  • 输出效果
  1. word2index: {'hello': 2, 'I': 3, 'am': 4, 'Jay': 5}
  2. index2word: {0: 'SOS', 1: 'EOS', 2: 'hello', 3: 'I', 4: 'am', 5: 'Jay'}
  3. n_words: 6
  • 字符规范化
  1. # 将unicode转为Ascii, 我们可以认为是去掉一些语言中的重音标记:Ślusàrski
  2. def unicodeToAscii(s):
  3. return ''.join(
  4. c for c in unicodedata.normalize('NFD', s)
  5. if unicodedata.category(c) != 'Mn'
  6. )
  7. def normalizeString(s):
  8. """字符串规范化函数, 参数s代表传入的字符串"""
  9. # 使字符变为小写并去除两侧空白符, z再使用unicodeToAscii去掉重音标记
  10. s = unicodeToAscii(s.lower().strip())
  11. # 在.!?前加一个空格
  12. s = re.sub(r"([.!?])", r" \1", s)
  13. # 使用正则表达式将字符串中不是大小写字母和正常标点的都替换成空格
  14. s = re.sub(r"[^a-zA-Z.!?]+", r" ", s)
  15. return s
  • 输入参数
s = "Are you kidding me?"
  • 调用
  1. nsr = normalizeString(s)
  2. print(nsr)
  • 输出效果
are you kidding me ?
  • 将持久化文件中的数据加载到内存, 并实例化类Lang
  1. data_path = '../Downloads/data/eng-fra.txt'
  2. def readLangs(lang1, lang2):
  3. """读取语言函数, 参数lang1是源语言的名字, 参数lang2是目标语言的名字
  4. 返回对应的class Lang对象, 以及语言对列表"""
  5. # 从文件中读取语言对并以/n划分存到列表lines
  6. lines = open(data_path, encoding='utf-8').\
  7. read().strip().split('\n')
  8. # 对lines列表中的句子进行标准化处理,并以\t进行再次划分, 形成子列表, 也就是语言对
  9. pairs = [[normalizeString(s) for s in l.split('\t')] for l in lines]
  10. # 然后分别将语言名字传入Lang类中, 获得对应的语言对象, 返回结果
  11. input_lang = Lang(lang1)
  12. output_lang = Lang(lang2)
  13. return input_lang, output_lang, pairs
  • 输入参数
  1. lang1 = "eng"
  2. lang2 = "fra"
  • 调用
  1. input_lang, output_lang, pairs = readLangs(lang1, lang2)
  2. print("input_lang:", input_lang)
  3. print("output_lang:", output_lang)
  4. print("pairs中的前五个:", pairs[:5])
  • 输出效果
  1. input_lang: <__main__.Lang object at 0x11ecf0828>
  2. output_lang: <__main__.Lang object at 0x12d420d68>
  3. pairs中的前五个: [['go .', 'va !'], ['run !', 'cours !'], ['run !', 'courez !'], ['wow !', 'ca alors !'], ['fire !', 'au feu !']]
  • 过滤出符合我们要求的语言对
  1. # 设置组成句子中单词或标点的最多个数
  2. MAX_LENGTH = 10
  3. # 选择带有指定前缀的语言特征数据作为训练数据
  4. eng_prefixes = (
  5. "i am ", "i m ",
  6. "he is", "he s ",
  7. "she is", "she s ",
  8. "you are", "you re ",
  9. "we are", "we re ",
  10. "they are", "they re "
  11. )
  12. def filterPair(p):
  13. """语言对过滤函数, 参数p代表输入的语言对, 如['she is afraid.', 'elle malade.']"""
  14. # p[0]代表英语句子,对它进行划分,它的长度应小于最大长度MAX_LENGTH并且要以指定的前缀开头
  15. # p[1]代表法文句子, 对它进行划分,它的长度应小于最大长度MAX_LENGTH
  16. return len(p[0].split(' ')) < MAX_LENGTH and \
  17. p[0].startswith(eng_prefixes) and \
  18. len(p[1].split(' ')) < MAX_LENGTH
  19. def filterPairs(pairs):
  20. """对多个语言对列表进行过滤, 参数pairs代表语言对组成的列表, 简称语言对列表"""
  21. # 函数中直接遍历列表中的每个语言对并调用filterPair即可
  22. return [pair for pair in pairs if filterPair(pair)]
  • 输入参数
# 输入参数pairs使用readLangs函数的输出结果pairs
  • 调用
  1. fpairs = filterPairs(pairs)
  2. print("过滤后的pairs前五个:", fpairs[:5])
  • 输出效果
过滤后的pairs前五个: [['i m .', 'j ai ans .'], ['i m ok .', 'je vais bien .'], ['i m ok .', 'ca va .'], ['i m fat .', 'je suis gras .'], ['i m fat .', 'je suis gros .']]
  • 对以上数据准备函数进行整合, 并使用类Lang对语言对进行数值映射
  1. def prepareData(lang1, lang2):
  2. """数据准备函数, 完成将所有字符串数据向数值型数据的映射以及过滤语言对
  3. 参数lang1, lang2分别代表源语言和目标语言的名字"""
  4. # 首先通过readLangs函数获得input_lang, output_lang对象,以及字符串类型的语言对列表
  5. input_lang, output_lang, pairs = readLangs(lang1, lang2)
  6. # 对字符串类型的语言对列表进行过滤操作
  7. pairs = filterPairs(pairs)
  8. # 对过滤后的语言对列表进行遍历
  9. for pair in pairs:
  10. # 并使用input_lang和output_lang的addSentence方法对其进行数值映射
  11. input_lang.addSentence(pair[0])
  12. output_lang.addSentence(pair[1])
  13. # 返回数值映射后的对象, 和过滤后语言对
  14. return input_lang, output_lang, pairs
  • 调用
  1. input_lang, output_lang, pairs = prepareData('eng', 'fra')
  2. print("input_n_words:", input_lang.n_words)
  3. print("output_n_words:", output_lang.n_words)
  4. print(random.choice(pairs))
  • 输出效果
  1. input_n_words: 2803
  2. output_n_words: 4345
  3. pairs随机选择一条: ['you re such an idiot !', 'quelle idiote tu es !']
  • 将语言对转化为模型输入需要的张量
  1. def tensorFromSentence(lang, sentence):
  2. """将文本句子转换为张量, 参数lang代表传入的Lang的实例化对象, sentence是预转换的句子"""
  3. # 对句子进行分割并遍历每一个词汇, 然后使用lang的word2index方法找到它对应的索引
  4. # 这样就得到了该句子对应的数值列表
  5. indexes = [lang.word2index[word] for word in sentence.split(' ')]
  6. # 然后加入句子结束标志
  7. indexes.append(EOS_token)
  8. # 将其使用torch.tensor封装成张量, 并改变它的形状为nx1, 以方便后续计算
  9. return torch.tensor(indexes, dtype=torch.long, device=device).view(-1, 1)
  10. def tensorsFromPair(pair):
  11. """将语言对转换为张量对, 参数pair为一个语言对"""
  12. # 调用tensorFromSentence分别将源语言和目标语言分别处理,获得对应的张量表示
  13. input_tensor = tensorFromSentence(input_lang, pair[0])
  14. target_tensor = tensorFromSentence(output_lang, pair[1])
  15. # 最后返回它们组成的元组
  16. return (input_tensor, target_tensor)
  • 输入参数
  1. # 取pairs的第一条
  2. pair = pairs[0]
  • 调用
  1. pair_tensor = tensorsFromPair(pair)
  2. print(pair_tensor)
  • 输出效果
  1. (tensor([[2],
  2. [3],
  3. [4],
  4. [1]]),
  5. tensor([[2],
  6. [3],
  7. [4],
  8. [5],
  9. [1]]))
  • 第三步: 构建基于GRU的编码器和解码器
    • 构建基于GRU的编码器
    • 编码器结构图

  1. class EncoderRNN(nn.Module):
  2. def __init__(self, input_size, hidden_size):
  3. """它的初始化参数有两个, input_size代表解码器的输入尺寸即源语言的
  4. 词表大小,hidden_size代表GRU的隐层节点数, 也代表词嵌入维度, 同时又是GRU的输入尺寸"""
  5. super(EncoderRNN, self).__init__()
  6. # 将参数hidden_size传入类中
  7. self.hidden_size = hidden_size
  8. # 实例化nn中预定义的Embedding层, 它的参数分别是input_size, hidden_size
  9. # 这里的词嵌入维度即hidden_size
  10. # nn.Embedding的演示在该代码下方
  11. self.embedding = nn.Embedding(input_size, hidden_size)
  12. # 然后实例化nn中预定义的GRU层, 它的参数是hidden_size
  13. # nn.GRU的演示在该代码下方
  14. self.gru = nn.GRU(hidden_size, hidden_size)
  15. def forward(self, input, hidden):
  16. """编码器前向逻辑函数中参数有两个, input代表源语言的Embedding层输入张量
  17. hidden代表编码器层gru的初始隐层张量"""
  18. # 将输入张量进行embedding操作, 并使其形状变为(1,1,-1),-1代表自动计算维度
  19. # 理论上,我们的编码器每次只以一个词作为输入, 因此词汇映射后的尺寸应该是[1, embedding]
  20. # 而这里转换成三维的原因是因为torch中预定义gru必须使用三维张量作为输入, 因此我们拓展了一个维度
  21. output = self.embedding(input).view(1, 1, -1)
  22. # 然后将embedding层的输出和传入的初始hidden作为gru的输入传入其中,
  23. # 获得最终gru的输出output和对应的隐层张量hidden, 并返回结果
  24. output, hidden = self.gru(output, hidden)
  25. return output, hidden
  26. def initHidden(self):
  27. """初始化隐层张量函数"""
  28. # 将隐层张量初始化成为1x1xself.hidden_size大小的0张量
  29. return torch.zeros(1, 1, self.hidden_size, device=device)
  • 实例化参数
  1. hidden_size = 25
  2. input_size = 20
  • 输入参数
  1. # pair_tensor[0]代表源语言即英文的句子,pair_tensor[0][0]代表句子中
  2. 的第一个词
  3. input = pair_tensor[0][0]
  4. # 初始化第一个隐层张量,1x1xhidden_size0张量
  5. hidden = torch.zeros(1, 1, hidden_size)
  • 调用
  1. encoder = EncoderRNN(input_size, hidden_size)
  2. encoder_output, hidden = encoder(input, hidden)
  3. print(encoder_output)
  • 输出效果
  1. tensor([[[ 1.9149e-01, -2.0070e-01, -8.3882e-02, -3.3037e-02, -1.3491e-01,
  2. -8.8831e-02, -1.6626e-01, -1.9346e-01, -4.3996e-01, 1.8020e-02,
  3. 2.8854e-02, 2.2310e-01, 3.5153e-01, 2.9635e-01, 1.5030e-01,
  4. -8.5266e-02, -1.4909e-01, 2.4336e-04, -2.3522e-01, 1.1359e-01,
  5. 1.6439e-01, 1.4872e-01, -6.1619e-02, -1.0807e-02, 1.1216e-02]]],
  6. grad_fn=<StackBackward>)
  • 构建基于GRU的解码器

  • 解码器结构图:

  1. class DecoderRNN(nn.Module):
  2. def __init__(self, hidden_size, output_size):
  3. """初始化函数有两个参数,hidden_size代表解码器中GRU的输入尺寸,也是它的隐层节点数
  4. output_size代表整个解码器的输出尺寸, 也是我们希望得到的指定尺寸即目标语言的词表大小"""
  5. super(DecoderRNN, self).__init__()
  6. # 将hidden_size传入到类中
  7. self.hidden_size = hidden_size
  8. # 实例化一个nn中的Embedding层对象, 它的参数output这里表示目标语言的词表大小
  9. # hidden_size表示目标语言的词嵌入维度
  10. self.embedding = nn.Embedding(output_size, hidden_size)
  11. # 实例化GRU对象,输入参数都是hidden_size,代表它的输入尺寸和隐层节点数相同
  12. self.gru = nn.GRU(hidden_size, hidden_size)
  13. # 实例化线性层, 对GRU的输出做线性变化, 获我们希望的输出尺寸output_size
  14. # 因此它的两个参数分别是hidden_size, output_size
  15. self.out = nn.Linear(hidden_size, output_size)
  16. # 最后使用softmax进行处理,以便于分类
  17. self.softmax = nn.LogSoftmax(dim=1)
  18. def forward(self, input, hidden):
  19. """解码器的前向逻辑函数中, 参数有两个, input代表目标语言的Embedding层输入张量
  20. hidden代表解码器GRU的初始隐层张量"""
  21. # 将输入张量进行embedding操作, 并使其形状变为(1,1,-1),-1代表自动计算维度
  22. # 原因和解码器相同,因为torch预定义的GRU层只接受三维张量作为输入
  23. output = self.embedding(input).view(1, 1, -1)
  24. # 然后使用relu函数对输出进行处理,根据relu函数的特性, 将使Embedding矩阵更稀疏,以防止过拟合
  25. output = F.relu(output)
  26. # 接下来, 将把embedding的输出以及初始化的hidden张量传入到解码器gru中
  27. output, hidden = self.gru(output, hidden)
  28. # 因为GRU输出的output也是三维张量,第一维没有意义,因此可以通过output[0]来降维
  29. # 再传给线性层做变换, 最后用softmax处理以便于分类
  30. output = self.softmax(self.out(output[0]))
  31. return output, hidden
  32. def initHidden(self):
  33. """初始化隐层张量函数"""
  34. # 将隐层张量初始化成为1x1xself.hidden_size大小的0张量
  35. return torch.zeros(1, 1, self.hidden_size, device=device)
  • 实例化参数
  1. hidden_size = 25
  2. output_size = 10
  • 输入参数
  1. # pair_tensor[1]代表目标语言即法文的句子,pair_tensor[1][0]代表句子中的第一个词
  2. input = pair_tensor[1][0]
  3. # 初始化第一个隐层张量,1x1xhidden_size0张量
  4. hidden = torch.zeros(1, 1, hidden_size)
  • 调用
  1. decoder = DecoderRNN(hidden_size, output_size)
  2. output, hidden = decoder(input, hidden)
  3. print(output)
  • 输出效果
  1. tensor([[-2.3554, -2.3551, -2.4361, -2.2158, -2.2550, -2.6237, -2.2917, -2.2663,
  2. -2.2409, -2.0783]], grad_fn=<LogSoftmaxBackward>)
  • 构建基于GRU和Attention的解码器

  • 解码器结构图:

  1. class AttnDecoderRNN(nn.Module):
  2. def __init__(self, hidden_size, output_size, dropout_p=0.1, max_length=MAX_LENGTH):
  3. """初始化函数中的参数有4个, hidden_size代表解码器中GRU的输入尺寸,也是它的隐层节点数
  4. output_size代表整个解码器的输出尺寸, 也是我们希望得到的指定尺寸即目标语言的词表大小
  5. dropout_p代表我们使用dropout层时的置零比率,默认0.1, max_length代表句子的最大长度"""
  6. super(AttnDecoderRNN, self).__init__()
  7. # 将以下参数传入类中
  8. self.hidden_size = hidden_size
  9. self.output_size = output_size
  10. self.dropout_p = dropout_p
  11. self.max_length = max_length
  12. # 实例化一个Embedding层, 输入参数是self.output_size和self.hidden_size
  13. self.embedding = nn.Embedding(self.output_size, self.hidden_size)
  14. # 根据attention的QKV理论,attention的输入参数为三个Q,K,V,
  15. # 第一步,使用Q与K进行attention权值计算得到权重矩阵, 再与V做矩阵乘法, 得到V的注意力表示结果.
  16. # 这里常见的计算方式有三种:
  17. # 1,将Q,K进行纵轴拼接, 做一次线性变化, 再使用softmax处理获得结果最后与V做张量乘法
  18. # 2,将Q,K进行纵轴拼接, 做一次线性变化后再使用tanh函数激活, 然后再进行内部求和, 最后使用softmax处理获得结果再与V做张量乘法
  19. # 3,将Q与K的转置做点积运算, 然后除以一个缩放系数, 再使用softmax处理获得结果最后与V做张量乘法
  20. # 说明:当注意力权重矩阵和V都是三维张量且第一维代表为batch条数时, 则做bmm运算.
  21. # 第二步, 根据第一步采用的计算方法, 如果是拼接方法,则需要将Q与第二步的计算结果再进行拼接,
  22. # 如果是转置点积, 一般是自注意力, Q与V相同, 则不需要进行与Q的拼接.因此第二步的计算方式与第一步采用的全值计算方法有关.
  23. # 第三步,最后为了使整个attention结构按照指定尺寸输出, 使用线性层作用在第二步的结果上做一个线性变换. 得到最终对Q的注意力表示.
  24. # 我们这里使用的是第一步中的第一种计算方式, 因此需要一个线性变换的矩阵, 实例化nn.Linear
  25. # 因为它的输入是Q,K的拼接, 所以输入的第一个参数是self.hidden_size * 2,第二个参数是self.max_length
  26. # 这里的Q是解码器的Embedding层的输出, K是解码器GRU的隐层输出,因为首次隐层还没有任何输出,会使用编码器的隐层输出
  27. # 而这里的V是编码器层的输出
  28. self.attn = nn.Linear(self.hidden_size * 2, self.max_length)
  29. # 接着我们实例化另外一个线性层, 它是attention理论中的第四步的线性层,用于规范输出尺寸
  30. # 这里它的输入来自第三步的结果, 因为第三步的结果是将Q与第二步的结果进行拼接, 因此输入维度是self.hidden_size * 2
  31. self.attn_combine = nn.Linear(self.hidden_size * 2, self.hidden_size)
  32. # 接着实例化一个nn.Dropout层,并传入self.dropout_p
  33. self.dropout = nn.Dropout(self.dropout_p)
  34. # 之后实例化nn.GRU, 它的输入和隐层尺寸都是self.hidden_size
  35. self.gru = nn.GRU(self.hidden_size, self.hidden_size)
  36. # 最后实例化gru后面的线性层,也就是我们的解码器输出层.
  37. self.out = nn.Linear(self.hidden_size, self.output_size)
  38. def forward(self, input, hidden, encoder_outputs):
  39. """forward函数的输入参数有三个, 分别是源数据输入张量, 初始的隐层张量, 以及解码器的输出张量"""
  40. # 根据结构计算图, 输入张量进行Embedding层并扩展维度
  41. embedded = self.embedding(input).view(1, 1, -1)
  42. # 使用dropout进行随机丢弃,防止过拟合
  43. embedded = self.dropout(embedded)
  44. # 进行attention的权重计算, 哦我们呢使用第一种计算方式:
  45. # 将Q,K进行纵轴拼接, 做一次线性变化, 最后使用softmax处理获得结果
  46. attn_weights = F.softmax(
  47. self.attn(torch.cat((embedded[0], hidden[0]), 1)), dim=1)
  48. # 然后进行第一步的后半部分, 将得到的权重矩阵与V做矩阵乘法计算, 当二者都是三维张量且第一维代表为batch条数时, 则做bmm运算
  49. attn_applied = torch.bmm(attn_weights.unsqueeze(0),
  50. encoder_outputs.unsqueeze(0))
  51. # 之后进行第二步, 通过取[0]是用来降维, 根据第一步采用的计算方法, 需要将Q与第一步的计算结果再进行拼接
  52. output = torch.cat((embedded[0], attn_applied[0]), 1)
  53. # 最后是第三步, 使用线性层作用在第三步的结果上做一个线性变换并扩展维度,得到输出
  54. output = self.attn_combine(output).unsqueeze(0)
  55. # attention结构的结果使用relu激活
  56. output = F.relu(output)
  57. # 将激活后的结果作为gru的输入和hidden一起传入其中
  58. output, hidden = self.gru(output, hidden)
  59. # 最后将结果降维并使用softmax处理得到最终的结果
  60. output = F.log_softmax(self.out(output[0]), dim=1)
  61. # 返回解码器结果,最后的隐层张量以及注意力权重张量
  62. return output, hidden, attn_weights
  63. def initHidden(self):
  64. """初始化隐层张量函数"""
  65. # 将隐层张量初始化成为1x1xself.hidden_size大小的0张量
  66. return torch.zeros(1, 1, self.hidden_size, device=device)
  • 实例化参数
  1. hidden_size = 25
  2. output_size = 10
  • 输入参数
  1. input = pair_tensor[1][0]
  2. hidden = torch.zeros(1, 1, hidden_size)
  3. # encoder_outputs需要是encoder中每一个时间步的输出堆叠而成
  4. # 它的形状应该是10x25, 我们这里直接随机初始化一个张量
  5. encoder_outputs = torch.randn(10, 25)
  • 调用
  1. decoder = AttnDecoderRNN(hidden_size, output_size)
  2. output, hidden, attn_weights= decoder(input, hidden, encoder_outputs)
  3. print(output)
  • 输出效果
  1. tensor([[-2.3556, -2.1418, -2.2012, -2.5109, -2.4025, -2.2182, -2.2123, -2.4608,
  2. -2.2124, -2.3827]], grad_fn=<LogSoftmaxBackward>)
  • 第四步: 构建模型训练函数, 并进行训练
    • 什么是teacher_forcing?
      • 它是一种用于序列生成任务的训练技巧, 在seq2seq架构中, 根据循环神经网络理论,解码器每次应该使用上一步的结果作为输入的一部分, 但是训练过程中,一旦上一步的结果是错误的,就会导致这种错误被累积,无法达到训练效果, 因此,我们需要一种机制改变上一步出错的情况,因为训练时我们是已知正确的输出应该是什么,因此可以强制将上一步结果设置成正确的输出, 这种方式就叫做teacher_forcing.
  • teacher_forcing的作用:
    • 能够在训练的时候矫正模型的预测,避免在序列生成的过程中误差进一步放大.
    • teacher_forcing能够极大的加快模型的收敛速度,令模型训练过程更快更平稳.
  • 构建训练函数
  1. # 设置teacher_forcing比率为0.5
  2. teacher_forcing_ratio = 0.5
  3. def train(input_tensor, target_tensor, encoder, decoder, encoder_optimizer, decoder_optimizer, criterion, max_length=MAX_LENGTH):
  4. """训练函数, 输入参数有8个, 分别代表input_tensor:源语言输入张量,target_tensor:目标语言输入张量,encoder, decoder:编码器和解码器实例化对象
  5. encoder_optimizer, decoder_optimizer:编码器和解码器优化方法,criterion:损失函数计算方法,max_length:句子的最大长度"""
  6. # 初始化隐层张量
  7. encoder_hidden = encoder.initHidden()
  8. # 编码器和解码器优化器梯度归0
  9. encoder_optimizer.zero_grad()
  10. decoder_optimizer.zero_grad()
  11. # 根据源文本和目标文本张量获得对应的长度
  12. input_length = input_tensor.size(0)
  13. target_length = target_tensor.size(0)
  14. # 初始化编码器输出张量,形状是max_lengthxencoder.hidden_size0张量
  15. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  16. # 初始设置损失为0
  17. loss = 0
  18. # 循环遍历输入张量索引
  19. for ei in range(input_length):
  20. # 根据索引从input_tensor取出对应的单词的张量表示,和初始化隐层张量一同传入encoder对象中
  21. encoder_output, encoder_hidden = encoder(
  22. input_tensor[ei], encoder_hidden)
  23. # 将每次获得的输出encoder_output(三维张量), 使用[0, 0]降两维变成向量依次存入到encoder_outputs
  24. # 这样encoder_outputs每一行存的都是对应的句子中每个单词通过编码器的输出结果
  25. encoder_outputs[ei] = encoder_output[0, 0]
  26. # 初始化解码器的第一个输入,即起始符
  27. decoder_input = torch.tensor([[SOS_token]], device=device)
  28. # 初始化解码器的隐层张量即编码器的隐层输出
  29. decoder_hidden = encoder_hidden
  30. # 根据随机数与teacher_forcing_ratio对比判断是否使用teacher_forcing
  31. use_teacher_forcing = True if random.random() < teacher_forcing_ratio else False
  32. # 如果使用teacher_forcing
  33. if use_teacher_forcing:
  34. # 循环遍历目标张量索引
  35. for di in range(target_length):
  36. # 将decoder_input, decoder_hidden, encoder_outputs即attention中的QKV,
  37. # 传入解码器对象, 获得decoder_output, decoder_hidden, decoder_attention
  38. decoder_output, decoder_hidden, decoder_attention = decoder(
  39. decoder_input, decoder_hidden, encoder_outputs)
  40. # 因为使用了teacher_forcing, 无论解码器输出的decoder_output是什么, 我们都只
  41. # 使用‘正确的答案’,即target_tensor[di]来计算损失
  42. loss += criterion(decoder_output, target_tensor[di])
  43. # 并强制将下一次的解码器输入设置为‘正确的答案’
  44. decoder_input = target_tensor[di]
  45. else:
  46. # 如果不使用teacher_forcing
  47. # 仍然遍历目标张量索引
  48. for di in range(target_length):
  49. # 将decoder_input, decoder_hidden, encoder_outputs传入解码器对象
  50. # 获得decoder_output, decoder_hidden, decoder_attention
  51. decoder_output, decoder_hidden, decoder_attention = decoder(
  52. decoder_input, decoder_hidden, encoder_outputs)
  53. # 只不过这里我们将从decoder_output取出答案
  54. topv, topi = decoder_output.topk(1)
  55. # 损失计算仍然使用decoder_output和target_tensor[di]
  56. loss += criterion(decoder_output, target_tensor[di])
  57. # 最后如果输出值是终止符,则循环停止
  58. if topi.squeeze().item() == EOS_token:
  59. break
  60. # 否则,并对topi降维并分离赋值给decoder_input以便进行下次运算
  61. # 这里的detach的分离作用使得这个decoder_input与模型构建的张量图无关,相当于全新的外界输入
  62. decoder_input = topi.squeeze().detach()
  63. # 误差进行反向传播
  64. loss.backward()
  65. # 编码器和解码器进行优化即参数更新
  66. encoder_optimizer.step()
  67. decoder_optimizer.step()
  68. # 最后返回平均损失
  69. return loss.item() / target_length
  • 构建时间计算函数
  1. # 导入时间和数学工具包
  2. import time
  3. import math
  4. def timeSince(since):
  5. "获得每次打印的训练耗时, since是训练开始时间"
  6. # 获得当前时间
  7. now = time.time()
  8. # 获得时间差,就是训练耗时
  9. s = now - since
  10. # 将秒转化为分钟, 并取整
  11. m = math.floor(s / 60)
  12. # 计算剩下不够凑成1分钟的秒数
  13. s -= m * 60
  14. # 返回指定格式的耗时
  15. return '%dm %ds' % (m, s)
  • 输入参数
  1. # 假定模型训练开始时间是10min之前
  2. since = time.time() - 10*60
  • 调用:
  1. period = timeSince(since)
  2. print(period)
  • 输出效果
10m 0s 
  • 调用训练函数并打印日志和制图
  1. # 导入plt以便绘制损失曲线
  2. import matplotlib.pyplot as plt
  3. def trainIters(encoder, decoder, n_iters, print_every=1000, plot_every=100, learning_rate=0.01):
  4. """训练迭代函数, 输入参数有6个,分别是encoder, decoder: 编码器和解码器对象,
  5. n_iters: 总迭代步数, print_every:打印日志间隔, plot_every:绘制损失曲线间隔, learning_rate学习率"""
  6. # 获得训练开始时间戳
  7. start = time.time()
  8. # 每个损失间隔的平均损失保存列表,用于绘制损失曲线
  9. plot_losses = []
  10. # 每个打印日志间隔的总损失,初始为0
  11. print_loss_total = 0
  12. # 每个绘制损失间隔的总损失,初始为0
  13. plot_loss_total = 0
  14. # 使用预定义的SGD作为优化器,将参数和学习率传入其中
  15. encoder_optimizer = optim.SGD(encoder.parameters(), lr=learning_rate)
  16. decoder_optimizer = optim.SGD(decoder.parameters(), lr=learning_rate)
  17. # 选择损失函数
  18. criterion = nn.NLLLoss()
  19. # 根据设置迭代步进行循环
  20. for iter in range(1, n_iters + 1):
  21. # 每次从语言对列表中随机取出一条作为训练语句
  22. training_pair = tensorsFromPair(random.choice(pairs))
  23. # 分别从training_pair中取出输入张量和目标张量
  24. input_tensor = training_pair[0]
  25. target_tensor = training_pair[1]
  26. # 通过train函数获得模型运行的损失
  27. loss = train(input_tensor, target_tensor, encoder,
  28. decoder, encoder_optimizer, decoder_optimizer, criterion)
  29. # 将损失进行累和
  30. print_loss_total += loss
  31. plot_loss_total += loss
  32. # 当迭代步达到日志打印间隔时
  33. if iter % print_every == 0:
  34. # 通过总损失除以间隔得到平均损失
  35. print_loss_avg = print_loss_total / print_every
  36. # 将总损失归0
  37. print_loss_total = 0
  38. # 打印日志,日志内容分别是:训练耗时,当前迭代步,当前进度百分比,当前平均损失
  39. print('%s (%d %d%%) %.4f' % (timeSince(start),
  40. iter, iter / n_iters * 100, print_loss_avg))
  41. # 当迭代步达到损失绘制间隔时
  42. if iter % plot_every == 0:
  43. # 通过总损失除以间隔得到平均损失
  44. plot_loss_avg = plot_loss_total / plot_every
  45. # 将平均损失装进plot_losses列表
  46. plot_losses.append(plot_loss_avg)
  47. # 总损失归0
  48. plot_loss_total = 0
  49. # 绘制损失曲线
  50. plt.figure()
  51. plt.plot(plot_losses)
  52. # 保存到指定路径
  53. plt.savefig("./s2s_loss.png")
  • 输入参数
  1. # 设置隐层大小为256 ,也是词嵌入维度
  2. hidden_size = 256
  3. # 通过input_lang.n_words获取输入词汇总数,与hidden_size一同传入EncoderRNN类中
  4. # 得到编码器对象encoder1
  5. encoder1 = EncoderRNN(input_lang.n_words, hidden_size).to(device)
  6. # 通过output_lang.n_words获取目标词汇总数,与hidden_size和dropout_p一同传入AttnDecoderRNN类中
  7. # 得到解码器对象attn_decoder1
  8. attn_decoder1 = AttnDecoderRNN(hidden_size, output_lang.n_words, dropout_p=0.1).to(device)
  9. # 设置迭代步数
  10. n_iters = 75000
  11. # 设置日志打印间隔
  12. print_every = 5000
  • 调用
  1. # 调用trainIters进行模型训练,将编码器对象encoder1,码器对象attn_decoder1,迭代步数,日志打印间隔传入其中
  2. trainIters(encoder1, attn_decoder1, n_iters, print_every=print_every)
  • 输出效果
  1. 3m 35s (5000 6%) 3.4159
  2. 7m 12s (10000 13%) 2.7805
  3. 10m 46s (15000 20%) 2.4663
  4. 14m 23s (20000 26%) 2.1693
  5. 18m 6s (25000 33%) 1.9303
  6. 21m 44s (30000 40%) 1.7601
  7. 25m 23s (35000 46%) 1.6207
  8. 29m 8s (40000 53%) 1.4973
  9. 32m 44s (45000 60%) 1.3832
  10. 36m 22s (50000 66%) 1.2694
  11. 40m 6s (55000 73%) 1.1813
  12. 43m 51s (60000 80%) 1.0907
  13. 47m 29s (65000 86%) 1.0425
  14. 51m 10s (70000 93%) 0.9955
  15. 54m 48s (75000 100%) 0.9158
  • 损失下降曲线:

  • 损失曲线分析:
    • 一直下降的损失曲线, 说明模型正在收敛, 能够从数据中找到一些规律应用于数据.

第五步: 构建模型评估函数, 并进行测试以及Attention效果分析

  • 构建模型评估函数:
  1. def evaluate(encoder, decoder, sentence, max_length=MAX_LENGTH):
  2. """评估函数,输入参数有4个,分别是encoder, decoder: 编码器和解码器对象,
  3. sentence:需要评估的句子,max_length:句子的最大长度"""
  4. # 评估阶段不进行梯度计算
  5. with torch.no_grad():
  6. # 对输入的句子进行张量表示
  7. input_tensor = tensorFromSentence(input_lang, sentence)
  8. # 获得输入的句子长度
  9. input_length = input_tensor.size()[0]
  10. # 初始化编码器隐层张量
  11. encoder_hidden = encoder.initHidden()
  12. # 初始化编码器输出张量,是max_lengthxencoder.hidden_size0张量
  13. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  14. # 循环遍历输入张量索引
  15. for ei in range(input_length):
  16. # 根据索引从input_tensor取出对应的单词的张量表示,和初始化隐层张量一同传入encoder对象中
  17. encoder_output, encoder_hidden = encoder(input_tensor[ei],
  18. encoder_hidden)
  19. #将每次获得的输出encoder_output(三维张量), 使用[0, 0]降两维变成向量依次存入到encoder_outputs
  20. # 这样encoder_outputs每一行存的都是对应的句子中每个单词通过编码器的输出结果
  21. encoder_outputs[ei] += encoder_output[0, 0]
  22. # 初始化解码器的第一个输入,即起始符
  23. decoder_input = torch.tensor([[SOS_token]], device=device)
  24. # 初始化解码器的隐层张量即编码器的隐层输出
  25. decoder_hidden = encoder_hidden
  26. # 初始化预测的词汇列表
  27. decoded_words = []
  28. # 初始化attention张量
  29. decoder_attentions = torch.zeros(max_length, max_length)
  30. # 开始循环解码
  31. for di in range(max_length):
  32. # 将decoder_input, decoder_hidden, encoder_outputs传入解码器对象
  33. # 获得decoder_output, decoder_hidden, decoder_attention
  34. decoder_output, decoder_hidden, decoder_attention = decoder(
  35. decoder_input, decoder_hidden, encoder_outputs)
  36. # 取所有的attention结果存入初始化的attention张量中
  37. decoder_attentions[di] = decoder_attention.data
  38. # 从解码器输出中获得概率最高的值及其索引对象
  39. topv, topi = decoder_output.data.topk(1)
  40. # 从索引对象中取出它的值与结束标志值作对比
  41. if topi.item() == EOS_token:
  42. # 如果是结束标志值,则将结束标志装进decoded_words列表,代表翻译结束
  43. decoded_words.append('<EOS>')
  44. # 循环退出
  45. break
  46. else:
  47. # 否则,根据索引找到它在输出语言的index2word字典中对应的单词装进decoded_words
  48. decoded_words.append(output_lang.index2word[topi.item()])
  49. # 最后将本次预测的索引降维并分离赋值给decoder_input,以便下次进行预测
  50. decoder_input = topi.squeeze().detach()
  51. # 返回结果decoded_words, 以及完整注意力张量, 把没有用到的部分切掉
  52. return decoded_words, decoder_attentions[:di + 1]
  • 随机选择指定数量的数据进行评估
  1. def evaluateRandomly(encoder, decoder, n=6):
  2. """随机测试函数, 输入参数encoder, decoder代表编码器和解码器对象,n代表测试数"""
  3. # 对测试数进行循环
  4. for i in range(n):
  5. # 从pairs随机选择语言对
  6. pair = random.choice(pairs)
  7. # > 代表输入
  8. print('>', pair[0])
  9. # = 代表正确的输出
  10. print('=', pair[1])
  11. # 调用evaluate进行预测
  12. output_words, attentions = evaluate(encoder, decoder, pair[0])
  13. # 将结果连成句子
  14. output_sentence = ' '.join(output_words)
  15. # < 代表模型的输出
  16. print('<', output_sentence)
  17. print('')
  • 调用
  1. # 调用evaluateRandomly进行模型测试,将编码器对象encoder1,码器对象attn_decoder1传入其中
  2. evaluateRandomly(encoder1, attn_decoder1)
  • 输出效果
  1. > i m impressed with your french .
  2. = je suis impressionne par votre francais .
  3. < je suis impressionnee par votre francais . <EOS>
  4. > i m more than a friend .
  5. = je suis plus qu une amie .
  6. < je suis plus qu une amie . <EOS>
  7. > she is beautiful like her mother .
  8. = elle est belle comme sa mere .
  9. < elle est sa sa mere . <EOS>
  10. > you re winning aren t you ?
  11. = vous gagnez n est ce pas ?
  12. < tu restez n est ce pas ? <EOS>
  13. > he is angry with you .
  14. = il est en colere apres toi .
  15. < il est en colere apres toi . <EOS>
  16. > you re very timid .
  17. = vous etes tres craintifs .
  18. < tu es tres craintive . <EOS>
  • Attention张量制图
  1. sentence = "we re both teachers ."
  2. # 调用评估函数
  3. output_words, attentions = evaluate(
  4. encoder1, attn_decoder1, sentence)
  5. print(output_words)
  6. # 将attention张量转化成numpy, 使用matshow绘制
  7. plt.matshow(attentions.numpy())
  8. # 保存图像
  9. plt.savefig("./s2s_attn.png")
  • 输出效果
['nous', 'sommes', 'toutes', 'deux', 'enseignantes', '.', '<EOS>']
  • Attention可视化

  • 分析:
    • Attention图像的纵坐标代表输入的源语言各个词汇对应的索引, 0-6分别对应["we", "re", "both", "teachers", ".", ""], 纵坐标代表生成的目标语言各个词汇对应的索引, 0-7代表['nous', 'sommes', 'toutes', 'deux', 'enseignantes', '.', ''], 图中浅色小方块(颜色越浅说明影响越大)代表词汇之间的影响关系, 比如源语言的第1个词汇对生成目标语言的第1个词汇影响最大, 源语言的第4,5个词对生成目标语言的第5个词会影响最大, 通过这样的可视化图像, 我们可以知道Attention的效果好坏, 与我们人为去判定到底还有多大的差距. 进而衡量我们训练模型的可用性.

小节总结:

  • seq2seq模型架构分析:
    • 从图中可知, seq2seq模型架构, 包括两部分分别是encoder(编码器)和decoder(解码器), 编码器和解码器的内部实现都使用了GRU模型, 这里它要完成的是一个中文到英文的翻译: 欢迎 来 北京 --> welcome to BeiJing. 编码器首先处理中文输入"欢迎 来 北京", 通过GRU模型获得每个时间步的输出张量,最后将它们拼接成一个中间语义张量c, 接着解码器将使用这个中间语义张量c以及每一个时间步的隐层张量, 逐个生成对应的翻译语言.

  • 基于GRU的seq2seq模型架构实现翻译的过程:
    • 第一步: 导入必备的工具包.
    • 第二步: 对持久化文件中数据进行处理, 以满足模型训练要求.
    • 第三步: 构建基于GRU的编码器和解码器.
    • 第四步: 构建模型训练函数, 并进行训练.
    • 第五步: 构建模型评估函数, 并进行测试以及Attention效果分析.

  • 第一步: 导入必备的工具包
    • python版本使用3.6.x, pytorch版本使用1.3.1

  • 第二步: 对持久化文件中数据进行处理, 以满足模型训练要求
    • 将指定语言中的词汇映射成数值
    • 字符规范化
    • 将持久化文件中的数据加载到内存, 并实例化类Lang
    • 过滤出符合我们要求的语言对
    • 对以上数据准备函数进行整合, 并使用类Lang对语言对进行数值映射
    • 将语言对转化为模型输入需要的张量

  • 第三步: 构建基于GRU的编码器和解码器
    • 构建基于GRU的编码器
    • 构建基于GRU的解码器
    • 构建基于GRU和Attention的解码器

  • 第四步: 构建模型训练函数, 并进行训练
    • 什么是teacher_forcing: 它是一种用于序列生成任务的训练技巧, 在seq2seq架构中, 根据循环神经网络理论,解码器每次应该使用上一步的结果作为输入的一部分, 但是训练过程中,一旦上一步的结果是错误的,就会导致这种错误被累积,无法达到训练效果, 因此,我们需要一种机制改变上一步出错的情况,因为训练时我们是已知正确的输出应该是什么,因此可以强制将上一步结果设置成正确的输出, 这种方式就叫做teacher_forcing.
    • teacher_forcing的作用: 能够在训练的时候矫正模型的预测,避免在序列生成的过程中误差进一步放大. 另外, teacher_forcing能够极大的加快模型的收敛速度,令模型训练过程更快更平稳.
    • 构建训练函数train
    • 构建时间计算函数timeSince
    • 调用训练函数并打印日志和制图
    • 损失曲线分析: 一直下降的损失曲线, 说明模型正在收敛, 能够从数据中找到一些规律应用于数据

  • 第五步: 构建模型评估函数, 并进行测试以及Attention效果分析
    • 构建模型评估函数evaluate
    • 随机选择指定数量的数据进行评估
    • 进行了Attention可视化分析

  1. """
  2. 基于GRU的seq2seq模型架构实现翻译的过程:
  3. 第一步: 导入必备的工具包.
  4. 第二步: 对持久化文件中数据进行处理, 以满足模型训练要求.
  5. 第三步: 构建基于GRU的编码器和解码器.
  6. 第四步: 构建模型训练函数, 并进行训练.
  7. 第五步: 构建模型评估函数, 并进行测试以及Attention效果分析.
  8. """
  9. """
  10. 第一步: 导入必备的工具包
  11. """
  12. # 从io工具包导入open方法
  13. from io import open
  14. # 用于字符规范化
  15. import unicodedata
  16. # 用于正则表达式
  17. import re
  18. # 用于随机生成数据
  19. import random
  20. # 用于构建网络结构和函数的torch工具包
  21. import torch
  22. import torch.nn as nn
  23. import torch.nn.functional as F
  24. # torch中预定义的优化方法工具包
  25. from torch import optim
  26. # 设备选择, 我们可以选择在cuda或者cpu上运行你的代码
  27. device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
  28. #构建时间计算函数
  29. # 导入时间和数学工具包
  30. import time
  31. import math
  32. def timeSince(since):
  33. "获得每次打印的训练耗时, since是训练开始时间"
  34. # 获得当前时间
  35. now = time.time()
  36. # 获得时间差,就是训练耗时
  37. s = now - since
  38. # 将秒转化为分钟, 并取整
  39. m = math.floor(s / 60)
  40. # 计算剩下不够凑成1分钟的秒数
  41. s -= m * 60
  42. # 返回指定格式的耗时
  43. return '%dm %ds' % (m, s)
  44. # #输入参数:
  45. # # 假定模型训练开始时间是10min之前
  46. # since = time.time() - 10*60
  47. # #调用:
  48. # period = timeSince(since)
  49. # print(period) #10m 0s
  50. """
  51. 第二步: 对持久化文件中数据进行处理, 以满足模型训练要求
  52. 1.将指定语言中的词汇映射成数值
  53. 2.字符规范化
  54. 3.将持久化文件中的数据加载到内存, 并实例化类Lang
  55. 4.过滤出符合我们要求的语言对
  56. 5.对以上数据准备函数进行整合, 并使用类Lang对语言对进行数值映射
  57. 6.将语言对转化为模型输入需要的张量
  58. """
  59. #======================1.将指定语言中的词汇映射成数值========================#
  60. # 起始标志
  61. SOS_token = 0
  62. # 结束标志
  63. EOS_token = 1
  64. class Lang:
  65. """初始化函数中参数name代表传入某种语言的名字"""
  66. def __init__(self, name):
  67. # 将name传入类中
  68. self.name = name
  69. # 初始化词汇对应自然数值的字典
  70. self.word2index = {}
  71. # 初始化自然数值对应词汇的字典, 其中01对应的SOS和EOS已经在里面了
  72. self.index2word = {0: "SOS", 1: "EOS"}
  73. # 初始化词汇对应的自然数索引,这里从2开始,因为01已经被开始和结束标志占用了
  74. self.n_words = 2
  75. """添加句子函数, 即将句子转化为对应的数值序列, 输入参数sentence是一条句子"""
  76. def addSentence(self, sentence):
  77. # 根据一般国家的语言特性(我们这里研究的语言都是以空格分个单词)
  78. # 对句子进行分割,得到对应的词汇列表
  79. for word in sentence.split(' '):
  80. """
  81. 构建 单词-索引的词汇表字典、索引-单词的词汇表字典:
  82. 单词-索引的词汇表字典:key为单词,value为单词对应的索引值
  83. 索引-单词的词汇表字典:key为单词对应的索引值,value为单词
  84. """
  85. # 然后调用addWord进行处理
  86. self.addWord(word)
  87. """添加词汇函数, 即将词汇转化为对应的数值, 输入参数word是一个单词"""
  88. def addWord(self, word):
  89. # 首先判断word是否已经在self.word2index字典的key
  90. if word not in self.word2index:
  91. """
  92. 构建 单词-索引的词汇表字典、索引-单词的词汇表字典
  93. 单词-索引的词汇表字典:key为单词,value为单词对应的索引值
  94. 索引-单词的词汇表字典:key为单词对应的索引值,value为单词
  95. """
  96. # 如果不在, 则将这个词加入其中, 并为它对应一个数值,即self.n_words
  97. self.word2index[word] = self.n_words
  98. # 同时也将它的反转形式加入到self.index2word中
  99. self.index2word[self.n_words] = word
  100. # self.n_words一旦被占用之后,逐次加1, 变成新的self.n_words
  101. self.n_words += 1
  102. # #实例化参数
  103. # name = "eng"
  104. # #输入参数
  105. # sentence = "hello I am Jay"
  106. # #调用
  107. # engl = Lang(name)
  108. # engl.addSentence(sentence)
  109. # print("word2index:", engl.word2index) #{'hello': 2, 'I': 3, 'am': 4, 'Jay': 5}
  110. # print("index2word:", engl.index2word) #{0: 'SOS', 1: 'EOS', 2: 'hello', 3: 'I', 4: 'am', 5: 'Jay'}
  111. # print("n_words:", engl.n_words) #6
  112. #======================2.字符规范化==============================================#
  113. # 将unicode转为Ascii, 我们可以认为是去掉一些语言中的重音标记:Ślusàrski
  114. def unicodeToAscii(s):
  115. return ''.join(
  116. c for c in unicodedata.normalize('NFD', s)
  117. if unicodedata.category(c) != 'Mn'
  118. )
  119. def normalizeString(s):
  120. """字符串规范化函数, 参数s代表传入的字符串"""
  121. # 使字符变为小写并去除两侧空白符, z再使用unicodeToAscii去掉重音标记
  122. s = unicodeToAscii(s.lower().strip())
  123. # 在.!?前加一个空格
  124. s = re.sub(r"([.!?])", r" \1", s)
  125. # 使用正则表达式将字符串中不是大小写字母和正常标点的都替换成空格
  126. s = re.sub(r"[^a-zA-Z.!?]+", r" ", s)
  127. return s
  128. # #输入参数
  129. # s = "Are you kidding me?"
  130. # #调用
  131. # nsr = normalizeString(s)
  132. # print(nsr) #are you kidding me ?
  133. #======================3.将持久化文件中的数据加载到内存, 并实例化类Lang=========#
  134. data_path = 'data/eng-fra.txt'
  135. def readLangs(lang1, lang2):
  136. """读取语言函数, 参数lang1是源语言的名字, 参数lang2是目标语言的名字
  137. 返回对应的class Lang对象, 以及语言对列表"""
  138. # 从文件中读取语言对并以/n划分存到列表lines
  139. lines = open(data_path, encoding='utf-8').read().strip().split('\n')
  140. # 对lines列表中的句子进行标准化处理,并以\t进行再次划分, 形成子列表, 也就是语言对
  141. pairs = [[normalizeString(s) for s in l.split('\t')] for l in lines]
  142. # 然后分别将语言名字传入Lang类中, 获得对应的语言对象, 返回结果
  143. input_lang = Lang(lang1)
  144. output_lang = Lang(lang2)
  145. return input_lang, output_lang, pairs
  146. # #输入参数
  147. # lang1 = "eng"
  148. # lang2 = "fra"
  149. # #调用
  150. # input_lang, output_lang, pairs = readLangs(lang1, lang2)
  151. # print("input_lang:", input_lang)#input_lang: <__main__.Lang object at 0x0000026E82DAED48>
  152. # print("output_lang:", output_lang)#output_lang: <__main__.Lang object at 0x0000026E8A427FC8>
  153. # print("pairs中的前五个:", pairs[:5]) #pairs中的前五个: [['go .', 'va !'], ['run !', 'cours !'], ['run !', 'courez !'], ['wow !', 'ca alors !'], ['fire !', 'au feu !']]
  154. #======================4.过滤出符合我们要求的语言对==============================================#
  155. # 设置组成句子中单词或标点的最多个数
  156. MAX_LENGTH = 10
  157. # 选择带有指定前缀的语言特征数据作为训练数据
  158. eng_prefixes = (
  159. "i am ", "i m ",
  160. "he is", "he s ",
  161. "she is", "she s ",
  162. "you are", "you re ",
  163. "we are", "we re ",
  164. "they are", "they re "
  165. )
  166. def filterPair(p):
  167. """语言对过滤函数, 参数p代表输入的语言对, 如['she is afraid.', 'elle malade.']"""
  168. # p[0]代表英语句子,对它进行划分,它的长度应小于最大长度MAX_LENGTH并且要以指定的前缀开头
  169. # p[1]代表法文句子, 对它进行划分,它的长度应小于最大长度MAX_LENGTH
  170. return len(p[0].split(' ')) < MAX_LENGTH and \
  171. p[0].startswith(eng_prefixes) and \
  172. len(p[1].split(' ')) < MAX_LENGTH
  173. def filterPairs(pairs):
  174. """对多个语言对列表进行过滤, 参数pairs代表语言对组成的列表, 简称语言对列表"""
  175. # 函数中直接遍历列表中的每个语言对并调用filterPair即可
  176. return [pair for pair in pairs if filterPair(pair)]
  177. # #输入参数:输入参数pairs使用readLangs函数的输出结果pairs
  178. # #调用
  179. # fpairs = filterPairs(pairs)
  180. # print("过滤后的pairs前五个:", fpairs[:5]) #过滤后的pairs前五个: [['i m .', 'j ai ans .'], ['i m ok .', 'je vais bien .'], ['i m ok .', 'ca va .'], ['i m fat .', 'je suis gras .'], ['i m fat .', 'je suis gros .']]
  181. #======================5.对以上数据准备函数进行整合, 并使用类Lang对语言对进行数值映射============#
  182. def prepareData(lang1, lang2):
  183. """数据准备函数, 完成将所有字符串数据向数值型数据的映射以及过滤语言对
  184. 参数lang1, lang2分别代表源语言和目标语言的名字"""
  185. # 首先通过readLangs函数获得input_lang, output_lang对象,以及字符串类型的语言对列表
  186. input_lang, output_lang, pairs = readLangs(lang1, lang2)
  187. # 对字符串类型的语言对列表进行过滤操作
  188. pairs = filterPairs(pairs)
  189. # 对过滤后的语言对列表进行遍历
  190. for pair in pairs:
  191. # 并使用input_lang和output_lang的addSentence方法对其进行数值映射
  192. input_lang.addSentence(pair[0])
  193. output_lang.addSentence(pair[1])
  194. # 返回数值映射后的对象, 和过滤后语言对
  195. return input_lang, output_lang, pairs
  196. #调用
  197. input_lang, output_lang, pairs = prepareData('eng', 'fra')
  198. # print("input_n_words:", input_lang.n_words)# 2803
  199. # print("output_n_words:", output_lang.n_words) # 4345
  200. # print(random.choice(pairs)) #['he is the oldest of them all .', 'c est le plus vieux d entre eux .']
  201. #======================6.将语言对转化为模型输入需要的张量==============================================#
  202. def tensorFromSentence(lang, sentence):
  203. """将文本句子转换为张量, 参数lang代表传入的Lang的实例化对象, sentence是预转换的句子"""
  204. # 对句子进行分割并遍历每一个词汇, 然后使用lang的word2index方法找到它对应的索引
  205. # 这样就得到了该句子对应的数值列表
  206. indexes = [lang.word2index[word] for word in sentence.split(' ')]
  207. # 然后加入句子结束标志
  208. indexes.append(EOS_token)
  209. # 将其使用torch.tensor封装成张量, 并改变它的形状为nx1, 以方便后续计算
  210. return torch.tensor(indexes, dtype=torch.long, device=device).view(-1, 1)
  211. def tensorsFromPair(pair):
  212. """将语言对转换为张量对, 参数pair为一个语言对"""
  213. # 调用tensorFromSentence分别将源语言和目标语言分别处理,获得对应的张量表示
  214. input_tensor = tensorFromSentence(input_lang, pair[0])
  215. target_tensor = tensorFromSentence(output_lang, pair[1])
  216. # 最后返回它们组成的元组
  217. return (input_tensor, target_tensor)
  218. # #输入参数:取pairs的第一条
  219. # pair = pairs[0]
  220. # #调用
  221. # pair_tensor = tensorsFromPair(pair)
  222. # print(pair_tensor)
  223. # # (tensor([[2],[3],[4],[1]], device='cuda:0'),
  224. # # tensor([[2],[3],[4],[5],[1]], device='cuda:0'))
  225. """
  226. 第三步: 构建基于GRU的编码器和解码器
  227. 1.构建基于GRU的编码器
  228. 2.构建基于GRU的解码器
  229. 3.构建基于GRU和Attention的解码器
  230. """
  231. #=============================1.构建基于GRU的编码器=============================#
  232. class EncoderRNN(nn.Module):
  233. def __init__(self, input_size, hidden_size):
  234. """
  235. 它的初始化参数有两个
  236. input_size代表整个编码器的输入尺寸,即编码的源语言的词表大小,也是我们希望得到的指定尺寸
  237. hidden_size代表GRU的隐层节点数, 也代表词嵌入维度, 同时又是GRU的输入尺寸
  238. """
  239. super(EncoderRNN, self).__init__()
  240. # 将参数hidden_size传入类中
  241. self.hidden_size = hidden_size
  242. # 实例化nn中预定义的Embedding层, 它的参数分别是input_size, hidden_size
  243. # 这里的词嵌入维度即hidden_size
  244. # nn.Embedding的演示在该代码下方
  245. """
  246. 初始化参数:
  247. input_size:整个编码器的输入尺寸,即编码器输出语言的词汇表大小。
  248. 可以是整个训练语料的不同单词的词汇总数,
  249. 也可以是“只包含至少出现N次的不同单词的”训练语料中至少出现N次的不同单词的词汇总数。
  250. hidden_size:是隐藏层中神经元数量, 又是embed_dim词嵌入维度。
  251. nn.Embedding(vocab_size 词汇总数, embed_dim 单词嵌入维度)
  252. vocab_size的多个版本:
  253. 整个编码器的输入尺寸,编码器输入的词嵌入的词汇表大小。
  254. 1.测试代码的时候输入的训练语料只有几个句子时,那么vocab_size为几个句子中可能出现的最多的不同单词的词汇总数,
  255. 可设置为比一个句子长度还长的大小。
  256. 2.训练的语料为整个训练集时,那么vocab_size为整个数据集中所有不同单词的词汇总数。
  257. 3.如果训练的整个语料数据集中只保留至少出现N次的词,那么vocab_size为整个数据集中至少出现N次的不同单词的词汇总数。
  258. nn.GRU(hidden_size, hidden_size) 多个写法:
  259. 1.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量, 隐藏层层数)
  260. 2.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量) #不写隐藏层层数,缺失值默认为1
  261. """
  262. self.embedding = nn.Embedding(input_size, hidden_size)
  263. # 然后实例化nn中预定义的GRU层, 它的参数是hidden_size
  264. # nn.GRU的演示在该代码下方
  265. self.gru = nn.GRU(hidden_size, hidden_size)
  266. def forward(self, input, hidden):
  267. """
  268. 编码器前向逻辑函数中参数有两个
  269. input代表源语言的Embedding层输入张量
  270. hidden代表编码器层gru的初始隐层张量
  271. """
  272. """
  273. forward函数参数输入
  274. input:输入数据为句子中的一个单词,shape为torch.Size([1])
  275. hidden:(1, 1, 25),即 (隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  276. embedding(input).view(1, 1, -1)
  277. [1]的input经过embedding嵌入化后变成[1, embed_dim],再经过view(1, 1, -1)变成[1,1, embed_dim]
  278. output, hidden = gru(嵌入化的三维张量, hidden)
  279. hidden:初始化的hidden(1, 1, 25)作为gru节点输入,一个gru节点的隐藏状态输出作为下一个gru节点的隐藏状态输入
  280. output:(1, 1, 25) 即 (当前批次的样本个数, 当前样本的序列长度(单词个数), 隐藏层中神经元数量)
  281. """
  282. # 将输入张量进行embedding操作, 并使其形状变为(1,1,-1),-1代表自动计算维度
  283. # 理论上,我们的编码器每次只以一个词作为输入, 因此词汇映射后的尺寸应该是[1, embedding]
  284. # 而这里转换成三维的原因是因为torch中预定义gru必须使用三维张量作为输入, 因此我们拓展了一个维度
  285. output = self.embedding(input).view(1, 1, -1)
  286. # 然后将embedding层的输出和传入的初始hidden作为gru的输入传入其中,
  287. # 获得最终gru的输出output和对应的隐层张量hidden, 并返回结果
  288. output, hidden = self.gru(output, hidden)
  289. return output, hidden
  290. def initHidden(self):
  291. """初始化隐层张量函数"""
  292. # 将隐层张量初始化成为1x1xself.hidden_size大小的0张量
  293. return torch.zeros(1, 1, self.hidden_size, device=device)
  294. # #输入参数:取pairs的第一条
  295. # pair = pairs[0]
  296. # #调用
  297. # pair_tensor = tensorsFromPair(pair)
  298. # # print(pair_tensor)
  299. # # (tensor([[2],[3],[4],[1]], device='cuda:0'),
  300. # # tensor([[2],[3],[4],[5],[1]], device='cuda:0'))
  301. #
  302. # #实例化参数
  303. # hidden_size = 25
  304. # input_size = 20
  305. # #输入参数
  306. # # pair_tensor[0]代表源语言即英文的句子,pair_tensor[0][0]代表句子中的第一个词
  307. # input = pair_tensor[0][0]
  308. # # print("input.shape:",input.shape) #torch.Size([1])
  309. # # 初始化第一个隐层张量,1 x 1 x hidden_size0维张量
  310. # #隐藏状态hidden三维张量:(隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  311. # hidden = torch.zeros(1, 1, hidden_size)
  312. # #调用
  313. # encoder = EncoderRNN(input_size, hidden_size).to(device)
  314. # encoder_output, hidden = encoder(input.to(device), hidden.to(device))
  315. # print(encoder_output.shape) #torch.Size([1, 1, 25])
  316. # print(hidden.shape) #torch.Size([1, 1, 25])
  317. #=============================2.构建基于GRU的解码器=============================#
  318. class DecoderRNN(nn.Module):
  319. def __init__(self, hidden_size, output_size):
  320. """
  321. 初始化函数有两个参数
  322. hidden_size代表解码器中GRU的输入尺寸,也是它的隐层节点数
  323. output_size代表整个解码器的输出尺寸, 也是我们希望得到的指定尺寸即目标语言的词表大小
  324. """
  325. """
  326. 初始化参数:
  327. input_size:整个解码器的输入尺寸,即解码器输出语言的词汇表大小。
  328. 可以是整个训练语料的不同单词的词汇总数,
  329. 也可以是“只包含至少出现N次的不同单词的”训练语料中至少出现N次的不同单词的词汇总数。
  330. hidden_size:是隐藏层中神经元数量, 又是embed_dim词嵌入维度。
  331. nn.Embedding(vocab_size 词汇总数, embed_dim 单词嵌入维度)
  332. vocab_size的多个版本:
  333. 整个编码器的输入尺寸,编码器输入的词嵌入的词汇表大小。
  334. 1.测试代码的时候输入的训练语料只有几个句子时,那么vocab_size为几个句子中可能出现的最多的不同单词的词汇总数,
  335. 可设置为比一个句子长度还长的大小。
  336. 2.训练的语料为整个训练集时,那么vocab_size为整个数据集中所有不同单词的词汇总数。
  337. 3.如果训练的整个语料数据集中只保留至少出现N次的词,那么vocab_size为整个数据集中至少出现N次的不同单词的词汇总数。
  338. nn.GRU(hidden_size, hidden_size) 多个写法:
  339. 1.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量, 隐藏层层数)
  340. 2.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量) #不写隐藏层层数,缺失值默认为1
  341. Linear(hidden_size输入维度, output_size输出维度) --> nn.LogSoftmax(dim=1)
  342. 先使用Linear把GRU的output输出的(1, 1, 25)中的hidden_size维度25 转换为 output_size维度10,最后用Softmax转换为维度10的概率值
  343. """
  344. super(DecoderRNN, self).__init__()
  345. # 将hidden_size传入到类中
  346. self.hidden_size = hidden_size
  347. # 实例化一个nn中的Embedding层对象, 它的参数output这里表示目标语言的词表大小
  348. # hidden_size表示目标语言的词嵌入维度
  349. self.embedding = nn.Embedding(output_size, hidden_size)
  350. # 实例化GRU对象,输入参数都是hidden_size,代表它的输入尺寸和隐层节点数相同
  351. self.gru = nn.GRU(hidden_size, hidden_size)
  352. # 实例化线性层, 对GRU的输出做线性变化, 获我们希望的输出尺寸output_size
  353. # 因此它的两个参数分别是hidden_size, output_size
  354. self.out = nn.Linear(hidden_size, output_size)
  355. # 最后使用softmax进行处理,以便于分类
  356. self.softmax = nn.LogSoftmax(dim=1)
  357. def forward(self, input, hidden):
  358. """
  359. 解码器的前向逻辑函数中, 参数有两个
  360. input代表目标语言的Embedding层输入张量
  361. hidden代表解码器GRU的初始隐层张量
  362. """
  363. """
  364. forward函数的实现:embedding --> relu --> gru --> Linear --> softmax
  365. forward函数参数输入
  366. input:输入数据为句子中的一个单词,shape为torch.Size([1])
  367. hidden:(1, 1, 25),即 (隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  368. embedding(input).view(1, 1, -1)
  369. [1]的input经过embedding嵌入化后变成[1, embed_dim],再经过view(1, 1, -1)变成[1,1, embed_dim]
  370. output, hidden = gru(嵌入化的三维张量, hidden)
  371. hidden:初始化的hidden(1, 1, 25)作为gru节点输入,一个gru节点的隐藏状态输出作为下一个gru节点的隐藏状态输入
  372. output:(1, 1, 25) 即 (当前批次的样本个数, 当前样本的序列长度(单词个数), 隐藏层中神经元数量)
  373. """
  374. # 将输入张量进行embedding操作, 并使其形状变为(1,1,-1),-1代表自动计算维度
  375. # 原因和解码器相同,因为torch预定义的GRU层只接受三维张量作为输入
  376. output = self.embedding(input).view(1, 1, -1)
  377. # 然后使用relu函数对输出进行处理,根据relu函数的特性, 将使Embedding矩阵更稀疏,以防止过拟合
  378. output = F.relu(output)
  379. # 接下来, 将把embedding的输出以及初始化的hidden张量传入到解码器gru中
  380. output, hidden = self.gru(output, hidden)
  381. # 因为GRU输出的output也是三维张量,第一维没有意义,因此可以通过output[0]来降维
  382. # 再传给线性层做变换, 最后用softmax处理以便于分类
  383. output = self.softmax(self.out(output[0]))
  384. return output, hidden
  385. def initHidden(self):
  386. """初始化隐层张量函数"""
  387. # 将隐层张量初始化成为1x1xself.hidden_size大小的0张量
  388. return torch.zeros(1, 1, self.hidden_size, device=device)
  389. # #输入参数:取pairs的第一条
  390. # pair = pairs[0]
  391. # #调用
  392. # pair_tensor = tensorsFromPair(pair)
  393. # # print(pair_tensor)
  394. # # (tensor([[2],[3],[4],[1]], device='cuda:0'),
  395. # # tensor([[2],[3],[4],[5],[1]], device='cuda:0'))
  396. #
  397. # #实例化参数
  398. # hidden_size = 25
  399. # output_size = 10
  400. # #输入参数
  401. # # pair_tensor[1]代表目标语言即法文的句子,pair_tensor[1][0]代表句子中的第一个词
  402. # input = pair_tensor[1][0]
  403. # # 初始化第一个隐层张量,1 x 1 x hidden_size0张量
  404. # # 隐藏状态hidden三维张量:(隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  405. # hidden = torch.zeros(1, 1, hidden_size)
  406. # #调用
  407. # decoder = DecoderRNN(hidden_size, output_size).to(device)
  408. # output, hidden = decoder(input.to(device), hidden.to(device))
  409. # print(hidden.shape) #torch.Size([1, 1, 25])
  410. # print(output.shape) #torch.Size([1, 10])
  411. #=============================3.构建基于GRU和Attention的解码器=============================#
  412. class AttnDecoderRNN(nn.Module):
  413. def __init__(self, hidden_size, output_size, dropout_p=0.1, max_length=MAX_LENGTH):
  414. """初始化函数中的参数有4个
  415. hidden_size 代表解码器中GRU的输入尺寸,也是它的隐层节点数
  416. output_size 代表整个解码器的输出尺寸, 也是我们希望得到的指定尺寸即目标语言的词表大小
  417. dropout_p 代表我们使用dropout层时的置零比率,默认0.1
  418. max_length 代表句子的最大长度
  419. """
  420. """
  421. 初始化参数:
  422. output_size:整个解码器的输出尺寸,即解码器输出语言的词汇表大小 4345。
  423. 可以是整个训练语料的不同单词的词汇总数 4345,
  424. 也可以是“只包含至少出现N次的不同单词的”训练语料中至少出现N次的不同单词的词汇总数。
  425. hidden_size:隐藏层中神经元数量 256, 又是embed_dim词嵌入维度 256。
  426. dropout_p:dropout层的置零比率,默认0.1
  427. max_length:句子的最大长度 10
  428. nn.Embedding(vocab_size 词汇总数, embed_dim 单词嵌入维度)
  429. vocab_size的多个版本:
  430. 整个编码器的输入尺寸,编码器输入的词嵌入的词汇表大小。
  431. 1.测试代码的时候输入的训练语料只有几个句子时,那么vocab_size为几个句子中可能出现的最多的不同单词的词汇总数,
  432. 可设置为比一个句子长度还长的大小。
  433. 2.训练的语料为整个训练集时,那么vocab_size为整个数据集中所有不同单词的词汇总数。
  434. 3.如果训练的整个语料数据集中只保留至少出现N次的词,那么vocab_size为整个数据集中至少出现N次的不同单词的词汇总数。
  435. nn.GRU(hidden_size, hidden_size) 多个写法:
  436. 1.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量, 隐藏层层数)
  437. 2.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量) #不写隐藏层层数,缺失值默认为1
  438. Linear(hidden_size输入维度, output_size输出维度) --> nn.LogSoftmax(dim=1)
  439. 先使用Linear把GRU的output输出的(1, 1, 256)中的hidden_size维度256 转换为 output_size维度4345,最后用Softmax转换为维度4345的概率值
  440. """
  441. super(AttnDecoderRNN, self).__init__()
  442. # 将以下参数传入类中
  443. self.hidden_size = hidden_size
  444. self.output_size = output_size
  445. self.dropout_p = dropout_p
  446. self.max_length = max_length
  447. # 实例化一个Embedding层, 输入参数是self.output_sizeself.hidden_size
  448. self.embedding = nn.Embedding(self.output_size, self.hidden_size)
  449. # 根据attention的QKV理论,attention的输入参数为三个Q,K,V,
  450. # 第一步,使用Q与K进行attention权值计算得到权重矩阵, 再与V做矩阵乘法, 得到V的注意力表示结果.
  451. # 这里常见的计算方式有三种:
  452. # 1,将Q,K进行纵轴拼接, 做一次线性变化, 再使用softmax处理获得结果最后与V做张量乘法
  453. # 2,将Q,K进行纵轴拼接, 做一次线性变化后再使用tanh函数激活, 然后再进行内部求和, 最后使用softmax处理获得结果再与V做张量乘法
  454. # 3,将Q与K的转置做点积运算, 然后除以一个缩放系数, 再使用softmax处理获得结果最后与V做张量乘法
  455. # 说明:当注意力权重矩阵和V都是三维张量且第一维代表为batch条数时, 则做bmm运算.
  456. # 第二步, 根据第一步采用的计算方法, 如果是拼接方法,则需要将Q与第二步的计算结果再进行拼接,
  457. # 如果是转置点积, 一般是自注意力, Q与V相同, 则不需要进行与Q的拼接.因此第二步的计算方式与第一步采用的全值计算方法有关.
  458. # 第三步,最后为了使整个attention结构按照指定尺寸输出, 使用线性层作用在第二步的结果上做一个线性变换. 得到最终对Q的注意力表示.
  459. # 我们这里使用的是第一步中的第一种计算方式, 因此需要一个线性变换的矩阵, 实例化nn.Linear
  460. # 因为它的输入是Q,K的拼接, 所以输入的第一个参数是self.hidden_size * 2,第二个参数是self.max_length
  461. # 这里的Q是解码器的Embedding层的输出, K是解码器GRU的隐层输出,因为首次隐层还没有任何输出,会使用编码器的隐层输出
  462. # 而这里的V是编码器层的输出
  463. self.attn = nn.Linear(self.hidden_size * 2, self.max_length)
  464. # 接着我们实例化另外一个线性层, 它是attention理论中的第四步的线性层,用于规范输出尺寸
  465. # 这里它的输入来自第三步的结果, 因为第三步的结果是将Q与第二步的结果进行拼接, 因此输入维度是self.hidden_size * 2
  466. self.attn_combine = nn.Linear(self.hidden_size * 2, self.hidden_size)
  467. # 接着实例化一个nn.Dropout层,并传入self.dropout_p
  468. self.dropout = nn.Dropout(self.dropout_p)
  469. # 之后实例化nn.GRU, 它的输入和隐层尺寸都是self.hidden_size
  470. self.gru = nn.GRU(self.hidden_size, self.hidden_size)
  471. # 最后实例化gru后面的线性层,也就是我们的解码器输出层.
  472. self.out = nn.Linear(self.hidden_size, self.output_size)
  473. """
  474. forward函数参数输入
  475. input:输入数据为句子中的一个单词,shape为torch.Size([1])
  476. hidden:(1, 1, 256),即 (隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  477. encoder_outputs:(10, 256),即(句子最大长度MAX_LENGTH, 隐藏层中神经元数量)
  478. forward函数返回gru节点的output输出和hidden输出,还有第一步的前半部分所输出的注意力权重矩阵attn_weights
  479. 注意力机制实现步骤简略版:
  480. Q:输入张量进行embedding嵌入化后的张量input
  481. K:隐藏状态输入hidden
  482. V:编码器的输出encoder_outputs
  483. 第一步的前半部分:注意力权重矩阵attn_weights = softmax(Linear(cat((Q[0], K[0]), 1)), dim=1)
  484. 第一步的后半部分:attn_applied = bmm(注意力权重矩阵attn_weights.unsqueeze(0), V)
  485. 第二步:output = cat((Q[0], attn_applied[0]), 1)
  486. 第三步:output = Linear(output).unsqueeze(0)
  487. 1.embedding(input).view(1, 1, -1)
  488. [1]的input经过embedding嵌入化后变成[1, embed_dim],再经过view(1, 1, -1)变成[1,1, embed_dim] 即(1, 1, 256)
  489. 2.embedded = dropout(embedded)
  490. dropout前后的形状都不变,embedded依旧为[1,1, embed_dim] 即(1, 1, 256)
  491. 3.注意力机制实现 第一步的前半部分
  492. 注意力权重矩阵attn_weights = softmax(Linear_attn(cat((Q[0], K[0]), 1)), dim=1)
  493. 1.Linear_attn(hidden_size * 2, max_length) 输入维度:隐藏层中神经元数量*2。输出维度:句子的最大长度 10。
  494. 2.Linear_attn(cat((embedded[0], hidden[0]), 1))
  495. embedded[0]:(1, 1, 256) 变成 (1, 256)
  496. hidden[0]:(1, 1, 256) 变成 (1, 256)
  497. cat((embedded[0], hidden[0]), 1):(1, 256)和(1, 256)在列维度拼接变成(1, 512)
  498. Linear_attn 输入(1, 512) 输出(1, 10)
  499. 3.注意力权重矩阵attn_weights = F.softmax(Linear_attn的输出):softmax把(1, 10)转换为概率值的(1, 10)
  500. 4.注意力机制实现 第一步的后半部分
  501. attn_applied = bmm(注意力权重矩阵attn_weights.unsqueeze(0), V)
  502. attn_applied = torch.bmm(attn_weights.unsqueeze(0), encoder_outputs.unsqueeze(0))
  503. 注意力权重矩阵attn_weights.unsqueeze(0):(1, 10) 变成 (1, 1, 10)
  504. encoder_outputs.unsqueeze(0):(10, 256)变成 (1, 10, 256) ,即(1, 句子最大长度MAX_LENGTH, 隐藏层中神经元数量)
  505. attn_applied结果:bmm((1, 1, 10), (1, 10, 256)) 输出结果为 (1, 1, 256)
  506. 5.注意力机制实现 第二步
  507. output = cat((Q[0], attn_applied[0]), 1)
  508. output = torch.cat((embedded[0], attn_applied[0]), 1)
  509. embedded[0]:(1, 1, 256) 变成 (1, 256)
  510. attn_applied[0]:(1, 1, 256) 变成 (1, 256)
  511. cat((embedded[0], attn_applied[0]), 1):(1, 256)和(1, 256)在列维度拼接变成(1, 512)的output
  512. 6.注意力机制实现 第三步
  513. output = Linear(output).unsqueeze(0)
  514. Linear_attn_combine(hidden_size * 2, hidden_size) 输入维度:隐藏层中神经元数量*2。输出维度:隐藏层中神经元数量。
  515. output = Linear_attn_combine(output).unsqueeze(0)
  516. 线性层的输入张量output:(1, 512) 即 (1, 隐藏层中神经元数量*2)
  517. Linear_attn_combine: 把(1, 512) 转换为 (1, 256)
  518. unsqueeze(0):把(1, 256) 变成 (1, 1, 256)
  519. 线性层的输出张量output:(1, 1, 256)
  520. 7.output = relu(output)
  521. dropout前后的形状都不变,output依旧为(1, 1, 256)
  522. 8.output, hidden = gru(output, hidden)
  523. gru节点输入的output实际为经过注意力机制Attention计算之后的输出张量值,shape为(1, 1, 256)
  524. 1.gru = nn.GRU(hidden_size, hidden_size)
  525. nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量) #不写隐藏层层数,缺失值默认为1
  526. hidden_size为256:既为词嵌入维度,又为隐藏层神经元数量
  527. 2.output, hidden = gru(output, hidden)
  528. gru节点输入的output:
  529. 经过注意力机制Attention计算之后的输出张量值,shape为(1, 1, 256) 即 (当前批次的样本个数, 当前样本的序列长度(单词个数), 隐藏层中神经元数量)
  530. hidden:一开始使用初始化的hidden(1, 1, 256)作为第一个gru节点输入,一个gru节点的隐藏状态输出作为下一个gru节点的隐藏状态输入
  531. gru节点输出的output:shape为(1, 1, 256) (当前批次的样本个数, 当前样本的序列长度(单词个数), 隐藏层中神经元数量)
  532. 9.output = F.log_softmax(Linear_out(output[0]), dim=1)
  533. 1.Linear_out = Linear(hidden_size, output_size)
  534. 输入维度:隐藏层中神经元数量, 又是embed_dim词嵌入维度。输出维度:output_size,即解码器输出语言的词汇表大小
  535. 最后实例化gru后面的线性层,也就是我们的解码器输出层
  536. 2.output = Linear_out(output[0])
  537. 输入output的shape为(1, 1, 隐藏层中神经元数量256),output[0]为(1, 隐藏层中神经元数量256)
  538. 输出output的shape为(1, 解码器输出语言的词汇表大小 4345)
  539. 3.log_softmax((1, 4345), dim=1)
  540. softmax前后的形状都不变,把列值上的值转换为概率值
  541. """
  542. def forward(self, input, hidden, encoder_outputs):
  543. """
  544. forward函数的输入参数有三个, 分别是源数据输入张量input, 初始的隐层张量hidden, 以及编码器的输出张量encoder_outputs
  545. """
  546. # 根据结构计算图, 输入张量进行Embedding层并扩展维度
  547. embedded = self.embedding(input).view(1, 1, -1)
  548. # print("embedded.shape:",embedded.shape) #torch.Size([1, 1, 256])
  549. # 使用dropout进行随机丢弃,防止过拟合
  550. embedded = self.dropout(embedded)
  551. # print("embedded.shape:",embedded.shape) ##torch.Size([1, 1, 256])
  552. # 进行attention的权重计算, 哦我们呢使用第一种计算方式:
  553. # 将Q,K进行纵轴拼接, 做一次线性变化, 最后使用softmax处理获得结果
  554. attn_weights = F.softmax(self.attn(torch.cat((embedded[0], hidden[0]), 1)), dim=1)
  555. # print("attn_weights.shape:",attn_weights.shape) #torch.Size([1, 10])
  556. # 然后进行第一步的后半部分, 将得到的权重矩阵与V做矩阵乘法计算, 当二者都是三维张量且第一维代表为batch条数时, 则做bmm运算
  557. attn_applied = torch.bmm(attn_weights.unsqueeze(0),encoder_outputs.unsqueeze(0))
  558. # print("attn_applied.shape:",attn_applied.shape) #torch.Size([1, 1, 256])
  559. # 之后进行第二步, 通过取[0]是用来降维, 根据第一步采用的计算方法, 需要将Q与第一步的计算结果再进行拼接
  560. output = torch.cat((embedded[0], attn_applied[0]), 1)
  561. # print("output.shape:",output.shape) #torch.Size([1, 512])
  562. # 最后是第三步, 使用线性层作用在第三步的结果上做一个线性变换并扩展维度,得到输出
  563. output = self.attn_combine(output).unsqueeze(0)
  564. # print("output.shape:",output.shape) #torch.Size([1, 1, 256])
  565. # attention结构的结果使用relu激活
  566. output = F.relu(output)
  567. # print("output.shape:",output.shape)#torch.Size([1, 1, 256])
  568. # 将激活后的结果作为gru的输入和hidden一起传入其中
  569. output, hidden = self.gru(output, hidden)
  570. # print("output.shape:",output.shape) #torch.Size([1, 1, 256])
  571. # print("hidden.shape:",hidden.shape)#torch.Size([1, 1, 256])
  572. # 最后将结果降维并使用softmax处理得到最终的结果
  573. output = F.log_softmax(self.out(output[0]), dim=1)
  574. # print("output.shape:",output.shape) #torch.Size([1, 4345])
  575. # 返回解码器结果,最后的隐层张量以及注意力权重张量
  576. return output, hidden, attn_weights
  577. def initHidden(self):
  578. """初始化隐层张量函数"""
  579. # 将隐层张量初始化成为1x1xself.hidden_size大小的0张量
  580. return torch.zeros(1, 1, self.hidden_size, device=device)
  581. # #输入参数:取pairs的第一条
  582. # pair = pairs[0]
  583. # #调用
  584. # pair_tensor = tensorsFromPair(pair)
  585. # # print(pair_tensor)
  586. # # (tensor([[2],[3],[4],[1]], device='cuda:0'),
  587. # # tensor([[2],[3],[4],[5],[1]], device='cuda:0'))
  588. #
  589. # #实例化参数
  590. # # hidden_size = 25
  591. # # output_size = 10
  592. # hidden_size = 256
  593. # output_size = output_lang.n_words
  594. # #输入参数
  595. # # pair_tensor[1]代表目标语言即法文的句子,pair_tensor[1][0]代表句子中的第一个词
  596. # input = pair_tensor[1][0]
  597. # hidden = torch.zeros(1, 1, hidden_size)
  598. # print("input:",input) #input: tensor([2], device='cuda:0')
  599. """
  600. 编码器输出状态张量:(句子最大长度MAX_LENGTH, 隐藏层中神经元数量)
  601. 1.encoder中每一个时间步的输出outout堆叠而成的, 每一个时间步的输出outout为(1, 256) 即(句子中的一个单词, 隐藏层中神经元数量),
  602. 而案例中设置了一个句子的最大长度为MAX_LENGTH=10,其中清洗好的句子只包含单词字母和标点符号。
  603. 2.一个句子的最大长度为MAX_LENGTH=10,而且每一个时间步的输出outout为(1, 256),因此encoder_outputs编码器输出为(10, 256),
  604. 即 (句子最大长度MAX_LENGTH, 隐藏层中神经元数量),因此一开始先初始化一个(句子最大长度MAX_LENGTH, 隐藏层中神经元数量)的0值的二维张量,
  605. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  606. """
  607. # # encoder_outputs需要是encoder中每一个时间步的输出堆叠而成
  608. # # 它的形状应该是10x25, 我们这里直接随机初始化一个张量
  609. # # encoder_outputs = torch.randn(10, 25)
  610. # encoder_outputs = torch.randn(10, hidden_size)
  611. #
  612. # #调用
  613. # decoder = AttnDecoderRNN(hidden_size, output_size).to(device)
  614. # output, hidden, attn_weights= decoder(input.to(device), hidden.to(device), encoder_outputs.to(device))
  615. # print(output.shape) #torch.Size([1, 4345])
  616. # print(hidden.shape) #torch.Size([1, 1, 256])
  617. # print(attn_weights.shape) #torch.Size([1, 10])
  618. """
  619. 第四步: 构建模型训练函数, 并进行训练
  620. 1.teacher_forcing
  621. 1.什么是teacher_forcing?
  622. 它是一种用于序列生成任务的训练技巧, 在seq2seq架构中, 根据循环神经网络理论,
  623. 解码器每次应该使用上一步的结果作为输入的一部分, 但是训练过程中,一旦上一步的结果是错误的,
  624. 就会导致这种错误被累积,无法达到训练效果, 因此,我们需要一种机制改变上一步出错的情况,
  625. 因为训练时我们是已知正确的输出应该是什么,因此可以强制将上一步结果设置成正确的输出,
  626. 这种方式就叫做teacher_forcing.
  627. 2.teacher_forcing的作用:
  628. 能够在训练的时候矫正模型的预测,避免在序列生成的过程中误差进一步放大.
  629. teacher_forcing能够极大的加快模型的收敛速度,令模型训练过程更快更平稳.
  630. 2.构建训练函数
  631. 3.调用训练函数并打印日志和制图
  632. 4.构建模型评估函数
  633. """
  634. # 设置teacher_forcing比率为0.5
  635. teacher_forcing_ratio = 0.5
  636. #=========================== 2.构建训练函数 ===========================#
  637. def train(input_tensor, target_tensor, encoder, decoder, encoder_optimizer, decoder_optimizer, criterion, max_length=MAX_LENGTH):
  638. """训练函数, 输入参数有8个, 分别代表input_tensor:
  639. 源语言输入张量,target_tensor:目标语言输入张量,encoder, decoder:编码器和解码器实例化对象
  640. encoder_optimizer, decoder_optimizer:编码器和解码器优化方法,criterion:损失函数计算方法,max_length:句子的最大长度
  641. """
  642. """
  643. input_tensor:shape为[英语句子单词个数, 1]的[[单词对应的索引值]],每个值为英语句子中的每个单词对应在词汇表的索引值
  644. target_tensor:shape为[法语句子单词个数, 1]的[[单词对应的索引值]],每个值为法语句子中的每个单词对应在词汇表的索引值
  645. encoder_hidden:(1, 1, hidden_size) 即(1, 1, 256)
  646. input_length:英语(输入)句子单词个数,即单词的索引值的数量
  647. target_length:法语(输出)句子单词个数,即单词的索引值的数量
  648. encoder_outputs:
  649. 初始化编码器的output输出状态,为每一个时间步在最后一层隐藏层的output输出所封装的二维矩阵,
  650. shape为(句子最大长度max_length, hidden_size) 即(10, 256)
  651. """
  652. # 初始化隐层张量
  653. encoder_hidden = encoder.initHidden()
  654. # 编码器和解码器优化器梯度归0
  655. encoder_optimizer.zero_grad()
  656. decoder_optimizer.zero_grad()
  657. # 根据源文本和目标文本张量获得对应的长度
  658. input_length = input_tensor.size(0)
  659. target_length = target_tensor.size(0)
  660. # 初始化编码器输出张量,形状是max_lengthxencoder.hidden_size0张量
  661. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  662. # 初始设置损失为0
  663. loss = 0
  664. """
  665. for循环遍历出输入的英语句子中每个单词对应在词汇表中的索引值
  666. 1.encoder_output, encoder_hidden = encoder(input_tensor[ei], encoder_hidden)
  667. 先调用EncoderRNN类中的forward函数,先逐个把英语单词对应在词汇表的索引值传入到embedding层中输出嵌入化后的向量,
  668. shape为(1, embed_dim),再经过view(1, 1, -1)变成(1,1, embed_dim)。
  669. 然后把嵌入化后的三维张量和hidden状态值输入到GRU中输出output和hidden,两者shape均为(1, 1, hidden_size)。
  670. encoder_hidden:每一层隐藏层的最后一个时间步(最后一个节点)在编码器中隐藏状态值
  671. encoder_output:每一个时间步(每个单词)在编码器中最后一层隐藏层的output输出值
  672. 2.encoder_outputs[ei] = encoder_output[0, 0]
  673. encoder_outputs:
  674. 封装每一个时间步(每个单词)在编码器中最后一层隐藏层的output输出值,
  675. 作为整个编码器的output输出值用于输入到解码器中的每个时间步中。
  676. encoder_output[0, 0]表示把(1, 1, hidden_size)取出为[hidden_size]维度的向量作为每个单词(每个时间步)在编码器中的最终输出值,
  677. 然后存到encoder_outputs用于输入到解码器中的每个时间步中。
  678. """
  679. # 循环遍历输入张量索引
  680. for ei in range(input_length):
  681. # 根据索引从input_tensor取出对应的单词的张量表示,和初始化隐层张量一同传入encoder对象中
  682. encoder_output, encoder_hidden = encoder(input_tensor[ei], encoder_hidden)
  683. # 将每次获得的输出encoder_output(三维张量), 使用[0, 0]降两维变成向量依次存入到encoder_outputs
  684. # 这样encoder_outputs每一行存的都是对应的句子中每个单词通过编码器的输出结果
  685. encoder_outputs[ei] = encoder_output[0, 0]
  686. # print("encoder_output.shape:",encoder_output.shape)#torch.Size([1, 1, 256]) 即(1, 1, hidden_size)
  687. # print("encoder_hidden.shape:",encoder_hidden.shape)#torch.Size([1, 1, 256]) 即(1, 1, hidden_size)
  688. """
  689. 1.decoder_input = torch.tensor([[SOS_token]], device=device)
  690. 先创建句子起始标志为0值的[[0]]张量,shape为[1, 1],并作为解码器中第一个时间步的输入
  691. 2.decoder_hidden = encoder_hidden 两者shape为[1, 1, 256]
  692. encoder_hidden:每一层隐藏层的最后一个时间步(最后一个节点)在编码器中隐藏状态值
  693. decoder_hidden:把编码器中每一层隐藏层的最后一个时间步(最后一个节点)所封装起来的隐藏状态值 作为 解码器第一个时间步(第一个节点)的初始化隐藏状态值
  694. 3.use_teacher_forcing = True if random.random() < teacher_forcing_ratio else False
  695. teacher_forcing_ratio=0.5:表示random.random()随机出来的数据有一半机会整个判断表达式返回True或False
  696. 当一半机会判断True则执行teacher_forcing机制,当一半机会判断False则不执行teacher_forcing机制。
  697. """
  698. # 初始化解码器的第一个输入,即起始符
  699. decoder_input = torch.tensor([[SOS_token]], device=device)
  700. # print("decoder_input.shape:",decoder_input.shape) #torch.Size([1, 1])
  701. # 初始化解码器的隐层张量即编码器的隐层输出
  702. decoder_hidden = encoder_hidden
  703. # print("decoder_hidden.shape:",decoder_hidden.shape) #[1, 1, 256]
  704. # 根据随机数与teacher_forcing_ratio对比判断是否使用teacher_forcing
  705. use_teacher_forcing = True if random.random() < teacher_forcing_ratio else False
  706. """
  707. 使用teacher_forcing机制
  708. 模型预测中,我们需要将解码器在上⼀个时间步的输出作为当前时间步的输⼊。
  709. 与此不同,在训练中我们也可以将标签序列(训练集的真实输出序列)在上⼀个时间步的标签作为解码器在当前时间步的输⼊。
  710. 这叫作强制教学(teacher forcing)。解码器在某时间步的输⼊为样本输出序列在上⼀时间步的词,即强制教学。
  711. 在编码器—解码器的训练中,可以采⽤强制教学。
  712. for index in range(法语(输出)句子单词个数,即单词的索引值的数量):
  713. # decoder_input:
  714. # 第一个时间步传入的是shape为[1, 1]的起始符[[SOS_token]],
  715. # 后面每个时间步传入的是shape为[英语句子单词个数, 1]所遍历的每个单词对应的索引值,即shape为[1, 1]的[[单词对应的索引值]]。
  716. # decoder_hidden:[1, 1, 256]
  717. # 第一个时间步传入的是decoder_hidden=encoder_hidden,即第一个时间步使用的是编码器输出的隐藏状态值。
  718. # 后面每个时间步传入的是解码器前一时间步输出隐藏状态值。
  719. # encoder_outputs:[10, 256] 即[max_length, 隐藏神经元数量]
  720. # 解码器的每个时间步都传入编码器的output输出,该encoder_outputs封装了编码器每一个时间步在最后一层隐藏层的output输出值。
  721. decoder_output, decoder_hidden, decoder_attention = decoder(decoder_input, decoder_hidden, encoder_outputs)
  722. #target_tensor:shape为[法语(输出)句子单词个数, 1]的[[单词对应的索引值]],每个值为法语(输出)句子中的每个单词对应在词汇表的索引值。
  723. #target_tensor[index]:从shape为[[单词对应的索引值]]的法语(输出)句子中获取每个单词的索引值即[单词对应的索引值]
  724. #decoder_output:解码器输出output为经过了softmax概率值转换操作后的shape为[1, 4345]的概率值矩阵,4345为输出语料的词汇表大小
  725. #loss:使用shape为[1, 4345]的概率值矩阵 和 [单词对应的索引值] 计算loss
  726. loss += criterion(decoder_output, target_tensor[index])
  727. #target_tensor[index]:从shape为[[单词对应的索引值]]的法语(输出)句子中获取每个单词的索引值即[单词对应的索引值]
  728. #把下一个单词对应的索引值(真实标签值)作为解码器的下一个时间步的输入
  729. decoder_input = target_tensor[index]
  730. """
  731. # 如果使用teacher_forcing
  732. if use_teacher_forcing:
  733. """
  734. 如果是teacher_forcing,那么将会使用真实标签语句中的值作为解码器时间步的输入。
  735. 第一个时间步输入的是起始符SOS_token,然后后面每个时间步的输入都是真实标签语句中的单词索引值。
  736. 真实标签语句中的最后一个单词索引值为1(结束标志EOS_token),那么当前的循环是没有把1(结束标志EOS_token)再输入到解码器中训练的,
  737. 因为当前range(目标语句长度)中的最后一次循环中target_tensor[di]仅仅是把1(结束标志EOS_token)取出来了,
  738. 然后循环就结束了,并没有机会再次输入到解码器中继续训练。
  739. """
  740. # 循环遍历目标张量索引
  741. for di in range(target_length):
  742. # 将decoder_input, decoder_hidden, encoder_outputs即attention中的QKV,
  743. # 传入解码器对象, 获得decoder_output, decoder_hidden, decoder_attention
  744. decoder_output, decoder_hidden, decoder_attention = decoder(
  745. decoder_input, decoder_hidden, encoder_outputs)
  746. # print("encoder_outputs.shape:", encoder_outputs.shape) #[10, 256]
  747. # print("decoder_output.shape:", decoder_output.shape) #[1, 4345]
  748. # print("decoder_hidden.shape:", decoder_hidden.shape) #[1, 1, 256]
  749. # print("decoder_attention.shape:", decoder_attention.shape) #[1, 10]
  750. # print("target_tensor[di].shape:", target_tensor[di].shape) #[1]
  751. """
  752. >>> a
  753. tensor([[0., 0., 1., 0., 0.]])
  754. >>> a.argmax(1)
  755. tensor([2])
  756. >>> a.argmax(-1)
  757. tensor([2])
  758. """
  759. # print("target_tensor[di]:", target_tensor[di]) #一维张量 [一个单词对应的索引值]
  760. # print("decoder_output:", decoder_output.argmax(-1)) #二维张量 取[1, 4345]中的最后一个维度/第二个维度的最大概率值的索引位置
  761. # 因为使用了teacher_forcing, 无论解码器输出的decoder_output是什么, 我们都只
  762. # 使用‘正确的答案’,即target_tensor[di]来计算损失
  763. loss += criterion(decoder_output, target_tensor[di])
  764. # 并强制将下一次的解码器输入设置为‘正确的答案’
  765. decoder_input = target_tensor[di]
  766. else:
  767. # 如果不使用teacher_forcing
  768. # 仍然遍历目标张量索引
  769. for di in range(target_length):
  770. # 将decoder_input, decoder_hidden, encoder_outputs传入解码器对象
  771. # 获得decoder_output, decoder_hidden, decoder_attention
  772. decoder_output, decoder_hidden, decoder_attention = decoder(
  773. decoder_input, decoder_hidden, encoder_outputs)
  774. """
  775. #decoder_output:解码器输出output为经过了softmax概率值转换操作后的shape为[1, 4345]的概率值矩阵,4345为输出语料的词汇表大小
  776. #top_n,top_i = topk(K):从维度4345的概率值的向量值中获取最大概率类别值和对应的索引值,该索引值即代表某单词在词汇表中的索引值。
  777. #top_n:最大概率值。top_i:最大概率值的索引值。
  778. topv, topi = decoder_output.topk(1)
  779. """
  780. # 只不过这里我们将从decoder_output取出答案
  781. topv, topi = decoder_output.topk(1)
  782. # 损失计算仍然使用decoder_output和target_tensor[di]
  783. loss += criterion(decoder_output, target_tensor[di])
  784. # 最后如果输出值是终止符,则循环停止
  785. if topi.squeeze().item() == EOS_token:
  786. break
  787. """
  788. 使用teacher_forcing机制
  789. #topi:从维度4345的概率值的向量值中获取最大概率值的索引值,该索引值即代表某单词在词汇表中的索引值。
  790. #decoder_input:把下一个单词对应的索引值(真实标签值)作为解码器的下一个时间步的输入
  791. #detach:具有分离作用使得这个decoder_input与模型构建的张量图无关,相当于全新的外界输入
  792. decoder_input = topi.squeeze().detach()
  793. """
  794. # 否则,并对topi降维并分离赋值给decoder_input以便进行下次运算
  795. # 这里的detach的分离作用使得这个decoder_input与模型构建的张量图无关,相当于全新的外界输入
  796. decoder_input = topi.squeeze().detach()
  797. # 误差进行反向传播
  798. loss.backward()
  799. # 编码器和解码器进行优化即参数更新
  800. encoder_optimizer.step()
  801. decoder_optimizer.step()
  802. # 最后返回平均损失
  803. return loss.item() / target_length
  804. #=========================== 3.调用训练函数并打印日志和制图 ===========================#
  805. # 导入plt以便绘制损失曲线
  806. import matplotlib.pyplot as plt
  807. def trainIters(encoder, decoder, n_iters, print_every=100, plot_every=100, learning_rate=0.0001):
  808. """
  809. 训练迭代函数, 输入参数有6个,
  810. 分别是 encoder, decoder: 编码器和解码器对象;n_iters: 总迭代步数;
  811. print_every:打印日志间隔; plot_every:绘制损失曲线间隔; learning_rate:学习率
  812. """
  813. # 获得训练开始时间戳
  814. start = time.time()
  815. # 每个损失间隔的平均损失保存列表,用于绘制损失曲线
  816. plot_losses = []
  817. # 每个打印日志间隔的总损失,初始为0
  818. print_loss_total = 0
  819. # 每个绘制损失间隔的总损失,初始为0
  820. plot_loss_total = 0
  821. """ optimizer优化器对象 = optim.SGD(继承了“nn.Module”的自定义类对象.parameters(), lr=learning_rate) """
  822. # 使用预定义的SGD作为优化器,将参数和学习率传入其中
  823. encoder_optimizer = optim.SGD(encoder.parameters(), lr=learning_rate, momentum=0.9)
  824. decoder_optimizer = optim.SGD(decoder.parameters(), lr=learning_rate, momentum=0.9)
  825. """
  826. nn.LogSoftmax + nn.NLLLoss = 交叉熵Cross Entropy
  827. F.log_softmax + F.nll_loss = 交叉熵Cross Entropy
  828. torch.nn.CrossEntropyLoss()(内置softmax,无需显式写softmax层)= 交叉熵Cross Entropy
  829. """
  830. # 选择损失函数
  831. criterion = nn.NLLLoss()
  832. encoder.load_state_dict(torch.load("./model_save/encoder2_0.4831.pkl"))
  833. decoder.load_state_dict(torch.load("./model_save/decoder2_0.4831.pkl"))
  834. # 根据设置迭代步进行循环
  835. for iter in range(1, n_iters + 1):
  836. # 每次从语言对列表中随机取出一条作为训练语句
  837. # 返回的是元祖,元祖中第一个元素为英语句子中的每个单词对应在词汇表的索引值所封装的二维数组,
  838. # 元祖中第二个元素为法语句子中的每个单词对应在词汇表的索引值所封装的二维数组
  839. training_pair = tensorsFromPair(random.choice(pairs))
  840. """
  841. input_tensor:shape为[英语句子单词个数, 1],每个值为英语句子中的每个单词对应在词汇表的索引值
  842. target_tensor:shape为[法语句子单词个数, 1],每个值为法语句子中的每个单词对应在词汇表的索引值
  843. """
  844. # 分别从training_pair中取出输入张量和目标张量
  845. input_tensor = training_pair[0]
  846. target_tensor = training_pair[1]
  847. # print("input_tensor.shape:",input_tensor.shape) #torch.Size([英语句子单词个数, 1])
  848. # print("target_tensor.shape:",target_tensor.shape) #torch.Size([法语句子单词个数, 1])
  849. # 通过train函数获得模型运行的损失
  850. loss = train(input_tensor, target_tensor, encoder, decoder, encoder_optimizer, decoder_optimizer, criterion)
  851. # 将损失进行累和
  852. print_loss_total += loss
  853. plot_loss_total += loss
  854. # 当迭代步达到日志打印间隔时
  855. if iter % print_every == 0:
  856. # 通过总损失除以间隔得到平均损失
  857. print_loss_avg = print_loss_total / print_every
  858. # 将总损失归0
  859. print_loss_total = 0
  860. # 打印日志,日志内容分别是:训练耗时,当前迭代步,当前进度百分比,当前平均损失
  861. print('%s (%d %d%%) %.4f' % (timeSince(start),
  862. iter, iter / n_iters * 100, print_loss_avg))
  863. # 当迭代步达到损失绘制间隔时
  864. if iter % plot_every == 0:
  865. # 通过总损失除以间隔得到平均损失
  866. plot_loss_avg = plot_loss_total / plot_every
  867. # 将平均损失装进plot_losses列表
  868. plot_losses.append(plot_loss_avg)
  869. # 总损失归0
  870. plot_loss_total = 0
  871. # 绘制损失曲线
  872. plt.figure()
  873. plt.plot(plot_losses)
  874. # 保存到指定路径
  875. plt.savefig("./s2s_loss.png")
  876. torch.save(encoder1.state_dict(), './model_save/encoder.pt')
  877. torch.save(attn_decoder1.state_dict(), './model_save/attn_decoder.pt')
  878. #输入参数:
  879. # 设置隐层大小为256 ,也是词嵌入维度
  880. hidden_size = 256
  881. # 通过input_lang.n_words获取输入词汇总数 2803,与hidden_size 256一同传入EncoderRNN类中
  882. # 得到编码器对象encoder1
  883. encoder1 = EncoderRNN(input_lang.n_words, hidden_size).to(device)
  884. # 通过output_lang.n_words获取目标词汇总数 4345,与hidden_size 256 和dropout_p一同传入AttnDecoderRNN类中
  885. # 得到解码器对象attn_decoder1
  886. attn_decoder1 = AttnDecoderRNN(hidden_size, output_lang.n_words, dropout_p=0.1).to(device)
  887. # 设置迭代步数
  888. n_iters = 20000
  889. # 设置日志打印间隔
  890. print_every = 100
  891. # 调用trainIters进行模型训练,将编码器对象encoder1,码器对象attn_decoder1,迭代步数,日志打印间隔传入其中
  892. trainIters(encoder1, attn_decoder1, n_iters, print_every=print_every)
  893. """
  894. 第五步: 构建模型评估函数, 并进行测试以及Attention效果分析.
  895. 1.构建模型评估函数
  896. 2.随机选择指定数量的数据进行评估
  897. """
  898. #============================ 1.构建模型评估函数 =============================================#
  899. def evaluate(encoder, decoder, sentence, max_length=MAX_LENGTH):
  900. """评估函数,输入参数有4个,分别是encoder, decoder: 编码器和解码器对象,
  901. sentence:需要评估的句子,max_length:句子的最大长度"""
  902. # 评估阶段不进行梯度计算
  903. with torch.no_grad():
  904. # 对输入的句子进行张量表示
  905. input_tensor = tensorFromSentence(input_lang, sentence)
  906. # 获得输入的句子长度
  907. input_length = input_tensor.size()[0]
  908. # 初始化编码器隐层张量
  909. encoder_hidden = encoder.initHidden()
  910. # 初始化编码器输出张量,是max_lengthxencoder.hidden_size0张量
  911. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  912. # 循环遍历输入张量索引
  913. for ei in range(input_length):
  914. # 根据索引从input_tensor取出对应的单词的张量表示,和初始化隐层张量一同传入encoder对象中
  915. encoder_output, encoder_hidden = encoder(input_tensor[ei],
  916. encoder_hidden)
  917. #将每次获得的输出encoder_output(三维张量), 使用[0, 0]降两维变成向量依次存入到encoder_outputs
  918. # 这样encoder_outputs每一行存的都是对应的句子中每个单词通过编码器的输出结果
  919. encoder_outputs[ei] += encoder_output[0, 0]
  920. # 初始化解码器的第一个输入,即起始符
  921. decoder_input = torch.tensor([[SOS_token]], device=device)
  922. # 初始化解码器的隐层张量即编码器的隐层输出
  923. decoder_hidden = encoder_hidden
  924. # 初始化预测的词汇列表
  925. decoded_words = []
  926. """
  927. decoder_attentions = torch.zeros(max_length, max_length)
  928. 因为一个注意力权重矩阵attn_weights的shape为(1, max_length),即(1, 10)。
  929. 而由于for循环要遍历max_length次,即最多遍历10次,如果中途预测为'<EOS>'则提早停止循环。
  930. 注意力权重矩阵attn_weights = F.softmax(Linear_attn的输出):softmax把(1, 10)转换为概率值的(1, 10)
  931. 因此最终初始化的decoder_attentions的shape要为(max_length, max_length),即(10, 10)。
  932. decoder_attentions[di] = decoder_attention.data
  933. 每个时间步输出的decoder_attention的shape为(1, max_length),那么遍历到最多max_length次的话,
  934. 那么[max_length, max_length]的decoder_attentions整个都会被赋值。
  935. """
  936. # 初始化attention张量
  937. decoder_attentions = torch.zeros(max_length, max_length)
  938. # 开始循环解码
  939. for di in range(max_length):
  940. # 将decoder_input, decoder_hidden, encoder_outputs传入解码器对象
  941. # 获得decoder_output, decoder_hidden, decoder_attention
  942. decoder_output, decoder_hidden, decoder_attention = decoder(
  943. decoder_input, decoder_hidden, encoder_outputs)
  944. # 取所有的attention结果存入初始化的attention张量中
  945. decoder_attentions[di] = decoder_attention.data
  946. """
  947. #decoder_output:解码器输出output为经过了softmax概率值转换操作后的shape为[1, 4345]的概率值矩阵,4345为输出语料的词汇表大小
  948. #topv, top_i = topk(K):从维度4345的概率值的向量值中获取最大概率类别值和对应的索引值,该索引值即代表某单词在词汇表中的索引值。
  949. #topv:最大概率值。top_i:最大概率值的索引值。
  950. topv, topi = decoder_output.data.topk(1)
  951. """
  952. # 从解码器输出中获得概率最高的值及其索引对象
  953. topv, topi = decoder_output.data.topk(1)
  954. """ topi最大概率值的索引值 == EOS_token即1的话,那么停止遍历,并在输出语句decoded_words中添加结束标志符<EOS> """
  955. # 从索引对象中取出它的值与结束标志值作对比
  956. if topi.item() == EOS_token:
  957. # 如果是结束标志值,则将结束标志装进decoded_words列表,代表翻译结束
  958. decoded_words.append('<EOS>')
  959. # 循环退出
  960. break
  961. else:
  962. """
  963. decoded_words.append(output_lang.index2word[topi.item()])
  964. 从index2word字段中根据topi最大概率值的索引值取出对应的单词并添加在输出语句decoded_words中
  965. """
  966. # 否则,根据索引找到它在输出语言的index2word字典中对应的单词装进decoded_words
  967. decoded_words.append(output_lang.index2word[topi.item()])
  968. """
  969. #topi:从维度4345的概率值的向量值中获取最大概率值的索引值,该索引值即代表某单词在词汇表中的索引值。
  970. #decoder_input:把下一个单词对应的索引值(真实标签值)作为解码器的下一个时间步的输入
  971. #detach:具有分离作用使得这个decoder_input与模型构建的张量图无关,相当于全新的外界输入
  972. decoder_input = topi.squeeze().detach()
  973. """
  974. # 最后将本次预测的索引降维并分离赋值给decoder_input,以便下次进行预测
  975. decoder_input = topi.squeeze().detach()
  976. """ decoder_attentions[:di + 1]:因为左闭右开的关系,所以需要+1 """
  977. # 返回结果decoded_words, 以及完整注意力张量, 把没有用到的部分切掉
  978. return decoded_words, decoder_attentions[:di + 1]
  979. #============================ 2.随机选择指定数量的数据进行评估 =============================================#
  980. def evaluateRandomly(encoder, decoder, n=6):
  981. """随机测试函数, 输入参数encoder, decoder代表编码器和解码器对象,n代表测试数"""
  982. # 对测试数进行循环
  983. for i in range(n):
  984. # 从pairs随机选择语言对
  985. pair = random.choice(pairs)
  986. # > 代表输入
  987. print('>', pair[0])
  988. # = 代表正确的输出
  989. print('=', pair[1])
  990. # 调用evaluate进行预测
  991. output_words, attentions = evaluate(encoder, decoder, pair[0])
  992. # 将结果连成句子
  993. output_sentence = ' '.join(output_words)
  994. # < 代表模型的输出
  995. print('<', output_sentence)
  996. print('')
  997. # 调用evaluateRandomly进行模型测试,将编码器对象encoder1,码器对象attn_decoder1传入其中
  998. evaluateRandomly(encoder1, attn_decoder1)
  999. #绘制 Attention张量制图
  1000. sentence = "we re both teachers ."
  1001. # 调用评估函数
  1002. output_words, attentions = evaluate(
  1003. encoder1, attn_decoder1, sentence)
  1004. print(output_words)
  1005. # 将attention张量转化成numpy, 使用matshow绘制
  1006. plt.matshow(attentions.numpy())
  1007. # 保存图像
  1008. plt.savefig("./s2s_attn.png")
  1009. """
  1010. Attention图像的纵坐标代表输入的源语言各个词汇对应的索引, 0-6分别对应["we", "re", "both", "teachers", ".", ""],
  1011. 纵坐标代表生成的目标语言各个词汇对应的索引, 0-7代表['nous', 'sommes', 'toutes', 'deux', 'enseignantes', '.', ''],
  1012. 图中浅色小方块(颜色越浅说明影响越大)代表词汇之间的影响关系, 比如源语言的第1个词汇对生成目标语言的第1个词汇影响最大,
  1013. 源语言的第4,5个词对生成目标语言的第5个词会影响最大, 通过这样的可视化图像,
  1014. 我们可以知道Attention的效果好坏, 与我们人为去判定到底还有多大的差距. 进而衡量我们训练模型的可用性.
  1015. """
  1. """
  2. 基于GRU的seq2seq模型架构实现翻译的过程:
  3. 第一步: 导入必备的工具包.
  4. 第二步: 对持久化文件中数据进行处理, 以满足模型训练要求.
  5. 第三步: 构建基于GRU的编码器和解码器.
  6. 第四步: 构建模型训练函数, 并进行训练.
  7. 第五步: 构建模型评估函数, 并进行测试以及Attention效果分析.
  8. """
  9. """
  10. 第一步: 导入必备的工具包
  11. """
  12. # 从io工具包导入open方法
  13. from io import open
  14. # 用于字符规范化
  15. import unicodedata
  16. # 用于正则表达式
  17. import re
  18. # 用于随机生成数据
  19. import random
  20. # 用于构建网络结构和函数的torch工具包
  21. import torch
  22. import torch.nn as nn
  23. import torch.nn.functional as F
  24. # torch中预定义的优化方法工具包
  25. from torch import optim
  26. # 设备选择, 我们可以选择在cuda或者cpu上运行你的代码
  27. device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
  28. #构建时间计算函数
  29. # 导入时间和数学工具包
  30. import time
  31. import math
  32. def timeSince(since):
  33. "获得每次打印的训练耗时, since是训练开始时间"
  34. # 获得当前时间
  35. now = time.time()
  36. # 获得时间差,就是训练耗时
  37. s = now - since
  38. # 将秒转化为分钟, 并取整
  39. m = math.floor(s / 60)
  40. # 计算剩下不够凑成1分钟的秒数
  41. s -= m * 60
  42. # 返回指定格式的耗时
  43. return '%dm %ds' % (m, s)
  44. # #输入参数:
  45. # # 假定模型训练开始时间是10min之前
  46. # since = time.time() - 10*60
  47. # #调用:
  48. # period = timeSince(since)
  49. # print(period) #10m 0s
  50. """
  51. 第二步: 对持久化文件中数据进行处理, 以满足模型训练要求
  52. 1.将指定语言中的词汇映射成数值
  53. 2.字符规范化
  54. 3.将持久化文件中的数据加载到内存, 并实例化类Lang
  55. 4.过滤出符合我们要求的语言对
  56. 5.对以上数据准备函数进行整合, 并使用类Lang对语言对进行数值映射
  57. 6.将语言对转化为模型输入需要的张量
  58. """
  59. #======================1.将指定语言中的词汇映射成数值========================#
  60. # 起始标志
  61. SOS_token = 0
  62. # 结束标志
  63. EOS_token = 1
  64. class Lang:
  65. """初始化函数中参数name代表传入某种语言的名字"""
  66. def __init__(self, name):
  67. # 将name传入类中
  68. self.name = name
  69. # 初始化词汇对应自然数值的字典
  70. self.word2index = {}
  71. # 初始化自然数值对应词汇的字典, 其中01对应的SOS和EOS已经在里面了
  72. self.index2word = {0: "SOS", 1: "EOS"}
  73. # 初始化词汇对应的自然数索引,这里从2开始,因为01已经被开始和结束标志占用了
  74. self.n_words = 2
  75. """添加句子函数, 即将句子转化为对应的数值序列, 输入参数sentence是一条句子"""
  76. def addSentence(self, sentence):
  77. # 根据一般国家的语言特性(我们这里研究的语言都是以空格分个单词)
  78. # 对句子进行分割,得到对应的词汇列表
  79. for word in sentence.split(' '):
  80. """
  81. 构建 单词-索引的词汇表字典、索引-单词的词汇表字典:
  82. 单词-索引的词汇表字典:key为单词,value为单词对应的索引值
  83. 索引-单词的词汇表字典:key为单词对应的索引值,value为单词
  84. """
  85. # 然后调用addWord进行处理
  86. self.addWord(word)
  87. """添加词汇函数, 即将词汇转化为对应的数值, 输入参数word是一个单词"""
  88. def addWord(self, word):
  89. # 首先判断word是否已经在self.word2index字典的key
  90. if word not in self.word2index:
  91. """
  92. 构建 单词-索引的词汇表字典、索引-单词的词汇表字典
  93. 单词-索引的词汇表字典:key为单词,value为单词对应的索引值
  94. 索引-单词的词汇表字典:key为单词对应的索引值,value为单词
  95. """
  96. # 如果不在, 则将这个词加入其中, 并为它对应一个数值,即self.n_words
  97. self.word2index[word] = self.n_words
  98. # 同时也将它的反转形式加入到self.index2word中
  99. self.index2word[self.n_words] = word
  100. # self.n_words一旦被占用之后,逐次加1, 变成新的self.n_words
  101. self.n_words += 1
  102. # #实例化参数
  103. # name = "eng"
  104. # #输入参数
  105. # sentence = "hello I am Jay"
  106. # #调用
  107. # engl = Lang(name)
  108. # engl.addSentence(sentence)
  109. # print("word2index:", engl.word2index) #{'hello': 2, 'I': 3, 'am': 4, 'Jay': 5}
  110. # print("index2word:", engl.index2word) #{0: 'SOS', 1: 'EOS', 2: 'hello', 3: 'I', 4: 'am', 5: 'Jay'}
  111. # print("n_words:", engl.n_words) #6
  112. #======================2.字符规范化==============================================#
  113. # 将unicode转为Ascii, 我们可以认为是去掉一些语言中的重音标记:Ślusàrski
  114. def unicodeToAscii(s):
  115. return ''.join(
  116. c for c in unicodedata.normalize('NFD', s)
  117. if unicodedata.category(c) != 'Mn'
  118. )
  119. def normalizeString(s):
  120. """字符串规范化函数, 参数s代表传入的字符串"""
  121. # 使字符变为小写并去除两侧空白符, z再使用unicodeToAscii去掉重音标记
  122. s = unicodeToAscii(s.lower().strip())
  123. # 在.!?前加一个空格
  124. s = re.sub(r"([.!?])", r" \1", s)
  125. # 使用正则表达式将字符串中不是大小写字母和正常标点的都替换成空格
  126. s = re.sub(r"[^a-zA-Z.!?]+", r" ", s)
  127. return s
  128. # #输入参数
  129. # s = "Are you kidding me?"
  130. # #调用
  131. # nsr = normalizeString(s)
  132. # print(nsr) #are you kidding me ?
  133. #======================3.将持久化文件中的数据加载到内存, 并实例化类Lang=========#
  134. data_path = 'data/eng-fra.txt'
  135. def readLangs(lang1, lang2):
  136. """读取语言函数, 参数lang1是源语言的名字, 参数lang2是目标语言的名字
  137. 返回对应的class Lang对象, 以及语言对列表"""
  138. # 从文件中读取语言对并以/n划分存到列表lines
  139. lines = open(data_path, encoding='utf-8').read().strip().split('\n')
  140. # 对lines列表中的句子进行标准化处理,并以\t进行再次划分, 形成子列表, 也就是语言对
  141. pairs = [[normalizeString(s) for s in l.split('\t')] for l in lines]
  142. # 然后分别将语言名字传入Lang类中, 获得对应的语言对象, 返回结果
  143. input_lang = Lang(lang1)
  144. output_lang = Lang(lang2)
  145. return input_lang, output_lang, pairs
  146. # #输入参数
  147. # lang1 = "eng"
  148. # lang2 = "fra"
  149. # #调用
  150. # input_lang, output_lang, pairs = readLangs(lang1, lang2)
  151. # print("input_lang:", input_lang)#input_lang: <__main__.Lang object at 0x0000026E82DAED48>
  152. # print("output_lang:", output_lang)#output_lang: <__main__.Lang object at 0x0000026E8A427FC8>
  153. # print("pairs中的前五个:", pairs[:5]) #pairs中的前五个: [['go .', 'va !'], ['run !', 'cours !'], ['run !', 'courez !'], ['wow !', 'ca alors !'], ['fire !', 'au feu !']]
  154. #======================4.过滤出符合我们要求的语言对==============================================#
  155. # 设置组成句子中单词或标点的最多个数
  156. MAX_LENGTH = 10
  157. # 选择带有指定前缀的语言特征数据作为训练数据
  158. eng_prefixes = (
  159. "i am ", "i m ",
  160. "he is", "he s ",
  161. "she is", "she s ",
  162. "you are", "you re ",
  163. "we are", "we re ",
  164. "they are", "they re "
  165. )
  166. def filterPair(p):
  167. """语言对过滤函数, 参数p代表输入的语言对, 如['she is afraid.', 'elle malade.']"""
  168. # p[0]代表英语句子,对它进行划分,它的长度应小于最大长度MAX_LENGTH并且要以指定的前缀开头
  169. # p[1]代表法文句子, 对它进行划分,它的长度应小于最大长度MAX_LENGTH
  170. return len(p[0].split(' ')) < MAX_LENGTH and \
  171. p[0].startswith(eng_prefixes) and \
  172. len(p[1].split(' ')) < MAX_LENGTH
  173. def filterPairs(pairs):
  174. """对多个语言对列表进行过滤, 参数pairs代表语言对组成的列表, 简称语言对列表"""
  175. # 函数中直接遍历列表中的每个语言对并调用filterPair即可
  176. return [pair for pair in pairs if filterPair(pair)]
  177. # #输入参数:输入参数pairs使用readLangs函数的输出结果pairs
  178. # #调用
  179. # fpairs = filterPairs(pairs)
  180. # print("过滤后的pairs前五个:", fpairs[:5]) #过滤后的pairs前五个: [['i m .', 'j ai ans .'], ['i m ok .', 'je vais bien .'], ['i m ok .', 'ca va .'], ['i m fat .', 'je suis gras .'], ['i m fat .', 'je suis gros .']]
  181. #======================5.对以上数据准备函数进行整合, 并使用类Lang对语言对进行数值映射============#
  182. def prepareData(lang1, lang2):
  183. """数据准备函数, 完成将所有字符串数据向数值型数据的映射以及过滤语言对
  184. 参数lang1, lang2分别代表源语言和目标语言的名字"""
  185. # 首先通过readLangs函数获得input_lang, output_lang对象,以及字符串类型的语言对列表
  186. input_lang, output_lang, pairs = readLangs(lang1, lang2)
  187. # 对字符串类型的语言对列表进行过滤操作
  188. pairs = filterPairs(pairs)
  189. # 对过滤后的语言对列表进行遍历
  190. for pair in pairs:
  191. # 并使用input_lang和output_lang的addSentence方法对其进行数值映射
  192. input_lang.addSentence(pair[0])
  193. output_lang.addSentence(pair[1])
  194. # 返回数值映射后的对象, 和过滤后语言对
  195. return input_lang, output_lang, pairs
  196. #调用
  197. input_lang, output_lang, pairs = prepareData('eng', 'fra')
  198. # print("input_n_words:", input_lang.n_words)# 2803
  199. # print("output_n_words:", output_lang.n_words) # 4345
  200. # print(random.choice(pairs)) #['he is the oldest of them all .', 'c est le plus vieux d entre eux .']
  201. #======================6.将语言对转化为模型输入需要的张量==============================================#
  202. def tensorFromSentence(lang, sentence):
  203. """将文本句子转换为张量, 参数lang代表传入的Lang的实例化对象, sentence是预转换的句子"""
  204. # 对句子进行分割并遍历每一个词汇, 然后使用lang的word2index方法找到它对应的索引
  205. # 这样就得到了该句子对应的数值列表
  206. indexes = [lang.word2index[word] for word in sentence.split(' ')]
  207. # 然后加入句子结束标志
  208. indexes.append(EOS_token)
  209. # 将其使用torch.tensor封装成张量, 并改变它的形状为nx1, 以方便后续计算
  210. return torch.tensor(indexes, dtype=torch.long, device=device).view(-1, 1)
  211. # def tensorsFromPair(pair):
  212. # """将语言对转换为张量对, 参数pair为一个语言对"""
  213. # # 调用tensorFromSentence分别将源语言和目标语言分别处理,获得对应的张量表示
  214. # input_tensor = tensorFromSentence(input_lang, pair[0])
  215. # target_tensor = tensorFromSentence(output_lang, pair[1])
  216. # # 最后返回它们组成的元组
  217. # return (input_tensor, target_tensor)
  218. import numpy as np
  219. def tensorsFromPair(pair):
  220. """将语言对转换为张量对, 参数pair为一个语言对"""
  221. # 调用tensorFromSentence分别将源语言和目标语言分别处理,获得对应的张量表示
  222. # input_tensor = tensorFromSentence(input_lang, pair[0])
  223. # target_tensor = tensorFromSentence(output_lang, pair[1])
  224. """
  225. pairs
  226. pairs的shape为(10599, 2),pairs列表中包含10599个小列表,每个小列表中有两个字符串元素值。
  227. 第一个是英语句子字符串,第二个是法语句子字符串
  228. DataLoader中设置的是batch_size=64,因此tensorsFromPair函数中传入的pair为(16, 2)
  229. """
  230. input_tensor = [entry[0] for entry in pair] # 英语 输入句子
  231. target_tensor = [entry[1] for entry in pair] # 法语 输出句子
  232. # print("input_tensor:",input_tensor) #64个 英文句子 组成的 一维数组
  233. # print("target_tensor:",target_tensor) #64个 法语句子 组成的 一维数组
  234. # print("len(input_tensor):",len(input_tensor)) #64
  235. # print("len(target_tensor):",len(target_tensor))#64
  236. input_tensor_list = []
  237. target_tensor_list = []
  238. # 遍历 每个 批量大小英语句子的列表 和 法语句子的列表
  239. for input, target in zip(input_tensor, target_tensor):
  240. input_tensor = tensorFromSentence(input_lang, input)
  241. target_tensor = tensorFromSentence(output_lang, target)
  242. # print("input:",input)
  243. # print("target:",target)
  244. # print("input_tensor:",input_tensor)
  245. # print("target_tensor:",target_tensor)
  246. input_tensor_list.append(input_tensor)
  247. target_tensor_list.append(target_tensor)
  248. # 最后返回它们组成的元组
  249. return (np.array(input_tensor_list), np.array(target_tensor_list))
  250. # #输入参数:取pairs的第一条
  251. # pair = pairs[0]
  252. # #调用
  253. # pair_tensor = tensorsFromPair(pair)
  254. # print(pair_tensor)
  255. # # (tensor([[2],[3],[4],[1]], device='cuda:0'),
  256. # # tensor([[2],[3],[4],[5],[1]], device='cuda:0'))
  257. """
  258. 第三步: 构建基于GRU的编码器和解码器
  259. 1.构建基于GRU的编码器
  260. 2.构建基于GRU的解码器
  261. 3.构建基于GRU和Attention的解码器
  262. """
  263. #=============================1.构建基于GRU的编码器=============================#
  264. class EncoderRNN(nn.Module):
  265. def __init__(self, input_size, hidden_size):
  266. """
  267. 它的初始化参数有两个
  268. input_size代表整个编码器的输入尺寸,即编码的源语言的词表大小,也是我们希望得到的指定尺寸
  269. hidden_size代表GRU的隐层节点数, 也代表词嵌入维度, 同时又是GRU的输入尺寸
  270. """
  271. super(EncoderRNN, self).__init__()
  272. # 将参数hidden_size传入类中
  273. self.hidden_size = hidden_size
  274. # 实例化nn中预定义的Embedding层, 它的参数分别是input_size, hidden_size
  275. # 这里的词嵌入维度即hidden_size
  276. # nn.Embedding的演示在该代码下方
  277. """
  278. 初始化参数:
  279. input_size:整个编码器的输入尺寸,即编码器输出语言的词汇表大小。
  280. 可以是整个训练语料的不同单词的词汇总数,
  281. 也可以是“只包含至少出现N次的不同单词的”训练语料中至少出现N次的不同单词的词汇总数。
  282. hidden_size:是隐藏层中神经元数量, 又是embed_dim词嵌入维度。
  283. nn.Embedding(vocab_size 词汇总数, embed_dim 单词嵌入维度)
  284. vocab_size的多个版本:
  285. 整个编码器的输入尺寸,编码器输入的词嵌入的词汇表大小。
  286. 1.测试代码的时候输入的训练语料只有几个句子时,那么vocab_size为几个句子中可能出现的最多的不同单词的词汇总数,
  287. 可设置为比一个句子长度还长的大小。
  288. 2.训练的语料为整个训练集时,那么vocab_size为整个数据集中所有不同单词的词汇总数。
  289. 3.如果训练的整个语料数据集中只保留至少出现N次的词,那么vocab_size为整个数据集中至少出现N次的不同单词的词汇总数。
  290. nn.GRU(hidden_size, hidden_size) 多个写法:
  291. 1.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量, 隐藏层层数)
  292. 2.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量) #不写隐藏层层数,缺失值默认为1
  293. """
  294. self.embedding = nn.Embedding(input_size, hidden_size)
  295. # 然后实例化nn中预定义的GRU层, 它的参数是hidden_size
  296. # nn.GRU的演示在该代码下方
  297. self.gru = nn.GRU(hidden_size, hidden_size)
  298. def forward(self, input, hidden):
  299. """
  300. 编码器前向逻辑函数中参数有两个
  301. input代表源语言的Embedding层输入张量
  302. hidden代表编码器层gru的初始隐层张量
  303. """
  304. """
  305. forward函数参数输入
  306. input:输入数据为句子中的一个单词,shape为torch.Size([1])
  307. hidden:(1, 1, 25),即 (隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  308. embedding(input).view(1, 1, -1)
  309. [1]的input经过embedding嵌入化后变成[1, embed_dim],再经过view(1, 1, -1)变成[1,1, embed_dim]
  310. output, hidden = gru(嵌入化的三维张量, hidden)
  311. hidden:初始化的hidden(1, 1, 25)作为gru节点输入,一个gru节点的隐藏状态输出作为下一个gru节点的隐藏状态输入
  312. output:(1, 1, 25) 即 (当前批次的样本个数, 当前样本的序列长度(单词个数), 隐藏层中神经元数量)
  313. """
  314. # 将输入张量进行embedding操作, 并使其形状变为(1,1,-1),-1代表自动计算维度
  315. # 理论上,我们的编码器每次只以一个词作为输入, 因此词汇映射后的尺寸应该是[1, embedding]
  316. # 而这里转换成三维的原因是因为torch中预定义gru必须使用三维张量作为输入, 因此我们拓展了一个维度
  317. output = self.embedding(input).view(1, 1, -1)
  318. # 然后将embedding层的输出和传入的初始hidden作为gru的输入传入其中,
  319. # 获得最终gru的输出output和对应的隐层张量hidden, 并返回结果
  320. output, hidden = self.gru(output, hidden)
  321. return output, hidden
  322. def initHidden(self):
  323. """初始化隐层张量函数"""
  324. # 将隐层张量初始化成为1x1xself.hidden_size大小的0张量
  325. return torch.zeros(1, 1, self.hidden_size, device=device)
  326. # #输入参数:取pairs的第一条
  327. # pair = pairs[0]
  328. # #调用
  329. # pair_tensor = tensorsFromPair(pair)
  330. # # print(pair_tensor)
  331. # # (tensor([[2],[3],[4],[1]], device='cuda:0'),
  332. # # tensor([[2],[3],[4],[5],[1]], device='cuda:0'))
  333. #
  334. # #实例化参数
  335. # hidden_size = 25
  336. # input_size = 20
  337. # #输入参数
  338. # # pair_tensor[0]代表源语言即英文的句子,pair_tensor[0][0]代表句子中的第一个词
  339. # input = pair_tensor[0][0]
  340. # # print("input.shape:",input.shape) #torch.Size([1])
  341. # # 初始化第一个隐层张量,1 x 1 x hidden_size0维张量
  342. # #隐藏状态hidden三维张量:(隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  343. # hidden = torch.zeros(1, 1, hidden_size)
  344. # #调用
  345. # encoder = EncoderRNN(input_size, hidden_size).to(device)
  346. # encoder_output, hidden = encoder(input.to(device), hidden.to(device))
  347. # print(encoder_output.shape) #torch.Size([1, 1, 25])
  348. # print(hidden.shape) #torch.Size([1, 1, 25])
  349. #=============================2.构建基于GRU的解码器=============================#
  350. class DecoderRNN(nn.Module):
  351. def __init__(self, hidden_size, output_size):
  352. """
  353. 初始化函数有两个参数
  354. hidden_size代表解码器中GRU的输入尺寸,也是它的隐层节点数
  355. output_size代表整个解码器的输出尺寸, 也是我们希望得到的指定尺寸即目标语言的词表大小
  356. """
  357. """
  358. 初始化参数:
  359. input_size:整个解码器的输入尺寸,即解码器输出语言的词汇表大小。
  360. 可以是整个训练语料的不同单词的词汇总数,
  361. 也可以是“只包含至少出现N次的不同单词的”训练语料中至少出现N次的不同单词的词汇总数。
  362. hidden_size:是隐藏层中神经元数量, 又是embed_dim词嵌入维度。
  363. nn.Embedding(vocab_size 词汇总数, embed_dim 单词嵌入维度)
  364. vocab_size的多个版本:
  365. 整个编码器的输入尺寸,编码器输入的词嵌入的词汇表大小。
  366. 1.测试代码的时候输入的训练语料只有几个句子时,那么vocab_size为几个句子中可能出现的最多的不同单词的词汇总数,
  367. 可设置为比一个句子长度还长的大小。
  368. 2.训练的语料为整个训练集时,那么vocab_size为整个数据集中所有不同单词的词汇总数。
  369. 3.如果训练的整个语料数据集中只保留至少出现N次的词,那么vocab_size为整个数据集中至少出现N次的不同单词的词汇总数。
  370. nn.GRU(hidden_size, hidden_size) 多个写法:
  371. 1.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量, 隐藏层层数)
  372. 2.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量) #不写隐藏层层数,缺失值默认为1
  373. Linear(hidden_size输入维度, output_size输出维度) --> nn.LogSoftmax(dim=1)
  374. 先使用Linear把GRU的output输出的(1, 1, 25)中的hidden_size维度25 转换为 output_size维度10,最后用Softmax转换为维度10的概率值
  375. """
  376. super(DecoderRNN, self).__init__()
  377. # 将hidden_size传入到类中
  378. self.hidden_size = hidden_size
  379. # 实例化一个nn中的Embedding层对象, 它的参数output这里表示目标语言的词表大小
  380. # hidden_size表示目标语言的词嵌入维度
  381. self.embedding = nn.Embedding(output_size, hidden_size)
  382. # 实例化GRU对象,输入参数都是hidden_size,代表它的输入尺寸和隐层节点数相同
  383. self.gru = nn.GRU(hidden_size, hidden_size)
  384. # 实例化线性层, 对GRU的输出做线性变化, 获我们希望的输出尺寸output_size
  385. # 因此它的两个参数分别是hidden_size, output_size
  386. self.out = nn.Linear(hidden_size, output_size)
  387. # 最后使用softmax进行处理,以便于分类
  388. self.softmax = nn.LogSoftmax(dim=1)
  389. def forward(self, input, hidden):
  390. """
  391. 解码器的前向逻辑函数中, 参数有两个
  392. input代表目标语言的Embedding层输入张量
  393. hidden代表解码器GRU的初始隐层张量
  394. """
  395. """
  396. forward函数的实现:embedding --> relu --> gru --> Linear --> softmax
  397. forward函数参数输入
  398. input:输入数据为句子中的一个单词,shape为torch.Size([1])
  399. hidden:(1, 1, 25),即 (隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  400. embedding(input).view(1, 1, -1)
  401. [1]的input经过embedding嵌入化后变成[1, embed_dim],再经过view(1, 1, -1)变成[1,1, embed_dim]
  402. output, hidden = gru(嵌入化的三维张量, hidden)
  403. hidden:初始化的hidden(1, 1, 25)作为gru节点输入,一个gru节点的隐藏状态输出作为下一个gru节点的隐藏状态输入
  404. output:(1, 1, 25) 即 (当前批次的样本个数, 当前样本的序列长度(单词个数), 隐藏层中神经元数量)
  405. """
  406. # 将输入张量进行embedding操作, 并使其形状变为(1,1,-1),-1代表自动计算维度
  407. # 原因和解码器相同,因为torch预定义的GRU层只接受三维张量作为输入
  408. output = self.embedding(input).view(1, 1, -1)
  409. # 然后使用relu函数对输出进行处理,根据relu函数的特性, 将使Embedding矩阵更稀疏,以防止过拟合
  410. output = F.relu(output)
  411. # 接下来, 将把embedding的输出以及初始化的hidden张量传入到解码器gru中
  412. output, hidden = self.gru(output, hidden)
  413. # 因为GRU输出的output也是三维张量,第一维没有意义,因此可以通过output[0]来降维
  414. # 再传给线性层做变换, 最后用softmax处理以便于分类
  415. output = self.softmax(self.out(output[0]))
  416. return output, hidden
  417. def initHidden(self):
  418. """初始化隐层张量函数"""
  419. # 将隐层张量初始化成为1x1xself.hidden_size大小的0张量
  420. return torch.zeros(1, 1, self.hidden_size, device=device)
  421. # #输入参数:取pairs的第一条
  422. # pair = pairs[0]
  423. # #调用
  424. # pair_tensor = tensorsFromPair(pair)
  425. # # print(pair_tensor)
  426. # # (tensor([[2],[3],[4],[1]], device='cuda:0'),
  427. # # tensor([[2],[3],[4],[5],[1]], device='cuda:0'))
  428. #
  429. # #实例化参数
  430. # hidden_size = 25
  431. # output_size = 10
  432. # #输入参数
  433. # # pair_tensor[1]代表目标语言即法文的句子,pair_tensor[1][0]代表句子中的第一个词
  434. # input = pair_tensor[1][0]
  435. # # 初始化第一个隐层张量,1 x 1 x hidden_size0张量
  436. # # 隐藏状态hidden三维张量:(隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  437. # hidden = torch.zeros(1, 1, hidden_size)
  438. # #调用
  439. # decoder = DecoderRNN(hidden_size, output_size).to(device)
  440. # output, hidden = decoder(input.to(device), hidden.to(device))
  441. # print(hidden.shape) #torch.Size([1, 1, 25])
  442. # print(output.shape) #torch.Size([1, 10])
  443. #=============================3.构建基于GRU和Attention的解码器=============================#
  444. class AttnDecoderRNN(nn.Module):
  445. def __init__(self, hidden_size, output_size, dropout_p=0.1, max_length=MAX_LENGTH):
  446. """初始化函数中的参数有4个
  447. hidden_size 代表解码器中GRU的输入尺寸,也是它的隐层节点数
  448. output_size 代表整个解码器的输出尺寸, 也是我们希望得到的指定尺寸即目标语言的词表大小
  449. dropout_p 代表我们使用dropout层时的置零比率,默认0.1
  450. max_length 代表句子的最大长度
  451. """
  452. """
  453. 初始化参数:
  454. output_size:整个解码器的输出尺寸,即解码器输出语言的词汇表大小 4345。
  455. 可以是整个训练语料的不同单词的词汇总数 4345,
  456. 也可以是“只包含至少出现N次的不同单词的”训练语料中至少出现N次的不同单词的词汇总数。
  457. hidden_size:隐藏层中神经元数量 256, 又是embed_dim词嵌入维度 256。
  458. dropout_p:dropout层的置零比率,默认0.1
  459. max_length:句子的最大长度 10
  460. nn.Embedding(vocab_size 词汇总数, embed_dim 单词嵌入维度)
  461. vocab_size的多个版本:
  462. 整个编码器的输入尺寸,编码器输入的词嵌入的词汇表大小。
  463. 1.测试代码的时候输入的训练语料只有几个句子时,那么vocab_size为几个句子中可能出现的最多的不同单词的词汇总数,
  464. 可设置为比一个句子长度还长的大小。
  465. 2.训练的语料为整个训练集时,那么vocab_size为整个数据集中所有不同单词的词汇总数。
  466. 3.如果训练的整个语料数据集中只保留至少出现N次的词,那么vocab_size为整个数据集中至少出现N次的不同单词的词汇总数。
  467. nn.GRU(hidden_size, hidden_size) 多个写法:
  468. 1.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量, 隐藏层层数)
  469. 2.nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量) #不写隐藏层层数,缺失值默认为1
  470. Linear(hidden_size输入维度, output_size输出维度) --> nn.LogSoftmax(dim=1)
  471. 先使用Linear把GRU的output输出的(1, 1, 256)中的hidden_size维度256 转换为 output_size维度4345,最后用Softmax转换为维度4345的概率值
  472. """
  473. super(AttnDecoderRNN, self).__init__()
  474. # 将以下参数传入类中
  475. self.hidden_size = hidden_size
  476. self.output_size = output_size
  477. self.dropout_p = dropout_p
  478. self.max_length = max_length
  479. # 实例化一个Embedding层, 输入参数是self.output_sizeself.hidden_size
  480. self.embedding = nn.Embedding(self.output_size, self.hidden_size)
  481. # 根据attention的QKV理论,attention的输入参数为三个Q,K,V,
  482. # 第一步,使用Q与K进行attention权值计算得到权重矩阵, 再与V做矩阵乘法, 得到V的注意力表示结果.
  483. # 这里常见的计算方式有三种:
  484. # 1,将Q,K进行纵轴拼接, 做一次线性变化, 再使用softmax处理获得结果最后与V做张量乘法
  485. # 2,将Q,K进行纵轴拼接, 做一次线性变化后再使用tanh函数激活, 然后再进行内部求和, 最后使用softmax处理获得结果再与V做张量乘法
  486. # 3,将Q与K的转置做点积运算, 然后除以一个缩放系数, 再使用softmax处理获得结果最后与V做张量乘法
  487. # 说明:当注意力权重矩阵和V都是三维张量且第一维代表为batch条数时, 则做bmm运算.
  488. # 第二步, 根据第一步采用的计算方法, 如果是拼接方法,则需要将Q与第二步的计算结果再进行拼接,
  489. # 如果是转置点积, 一般是自注意力, Q与V相同, 则不需要进行与Q的拼接.因此第二步的计算方式与第一步采用的全值计算方法有关.
  490. # 第三步,最后为了使整个attention结构按照指定尺寸输出, 使用线性层作用在第二步的结果上做一个线性变换. 得到最终对Q的注意力表示.
  491. # 我们这里使用的是第一步中的第一种计算方式, 因此需要一个线性变换的矩阵, 实例化nn.Linear
  492. # 因为它的输入是Q,K的拼接, 所以输入的第一个参数是self.hidden_size * 2,第二个参数是self.max_length
  493. # 这里的Q是解码器的Embedding层的输出, K是解码器GRU的隐层输出,因为首次隐层还没有任何输出,会使用编码器的隐层输出
  494. # 而这里的V是编码器层的输出
  495. self.attn = nn.Linear(self.hidden_size * 2, self.max_length)
  496. # 接着我们实例化另外一个线性层, 它是attention理论中的第四步的线性层,用于规范输出尺寸
  497. # 这里它的输入来自第三步的结果, 因为第三步的结果是将Q与第二步的结果进行拼接, 因此输入维度是self.hidden_size * 2
  498. self.attn_combine = nn.Linear(self.hidden_size * 2, self.hidden_size)
  499. # 接着实例化一个nn.Dropout层,并传入self.dropout_p
  500. self.dropout = nn.Dropout(self.dropout_p)
  501. # 之后实例化nn.GRU, 它的输入和隐层尺寸都是self.hidden_size
  502. self.gru = nn.GRU(self.hidden_size, self.hidden_size)
  503. # 最后实例化gru后面的线性层,也就是我们的解码器输出层.
  504. self.out = nn.Linear(self.hidden_size, self.output_size)
  505. """
  506. forward函数参数输入
  507. input:输入数据为句子中的一个单词,shape为torch.Size([1])
  508. hidden:(1, 1, 256),即 (隐藏层层数, 句子中的一个单词, 隐藏层中神经元数量)
  509. encoder_outputs:(10, 256),即(句子最大长度MAX_LENGTH, 隐藏层中神经元数量)
  510. forward函数返回gru节点的output输出和hidden输出,还有第一步的前半部分所输出的注意力权重矩阵attn_weights
  511. 注意力机制实现步骤简略版:
  512. Q:输入张量进行embedding嵌入化后的张量input
  513. K:隐藏状态输入hidden
  514. V:编码器的输出encoder_outputs
  515. 第一步的前半部分:注意力权重矩阵attn_weights = softmax(Linear(cat((Q[0], K[0]), 1)), dim=1)
  516. 第一步的后半部分:attn_applied = bmm(注意力权重矩阵attn_weights.unsqueeze(0), V)
  517. 第二步:output = cat((Q[0], attn_applied[0]), 1)
  518. 第三步:output = Linear(output).unsqueeze(0)
  519. 1.embedding(input).view(1, 1, -1)
  520. [1]的input经过embedding嵌入化后变成[1, embed_dim],再经过view(1, 1, -1)变成[1,1, embed_dim] 即(1, 1, 256)
  521. 2.embedded = dropout(embedded)
  522. dropout前后的形状都不变,embedded依旧为[1,1, embed_dim] 即(1, 1, 256)
  523. 3.注意力机制实现 第一步的前半部分
  524. 注意力权重矩阵attn_weights = softmax(Linear_attn(cat((Q[0], K[0]), 1)), dim=1)
  525. 1.Linear_attn(hidden_size * 2, max_length) 输入维度:隐藏层中神经元数量*2。输出维度:句子的最大长度 10。
  526. 2.Linear_attn(cat((embedded[0], hidden[0]), 1))
  527. embedded[0]:(1, 1, 256) 变成 (1, 256)
  528. hidden[0]:(1, 1, 256) 变成 (1, 256)
  529. cat((embedded[0], hidden[0]), 1):(1, 256)和(1, 256)在列维度拼接变成(1, 512)
  530. Linear_attn 输入(1, 512) 输出(1, 10)
  531. 3.注意力权重矩阵attn_weights = F.softmax(Linear_attn的输出):softmax把(1, 10)转换为概率值的(1, 10)
  532. 4.注意力机制实现 第一步的后半部分
  533. attn_applied = bmm(注意力权重矩阵attn_weights.unsqueeze(0), V)
  534. attn_applied = torch.bmm(attn_weights.unsqueeze(0), encoder_outputs.unsqueeze(0))
  535. 注意力权重矩阵attn_weights.unsqueeze(0):(1, 10) 变成 (1, 1, 10)
  536. encoder_outputs.unsqueeze(0):(10, 256)变成 (1, 10, 256) ,即(1, 句子最大长度MAX_LENGTH, 隐藏层中神经元数量)
  537. attn_applied结果:bmm((1, 1, 10), (1, 10, 256)) 输出结果为 (1, 1, 256)
  538. 5.注意力机制实现 第二步
  539. output = cat((Q[0], attn_applied[0]), 1)
  540. output = torch.cat((embedded[0], attn_applied[0]), 1)
  541. embedded[0]:(1, 1, 256) 变成 (1, 256)
  542. attn_applied[0]:(1, 1, 256) 变成 (1, 256)
  543. cat((embedded[0], attn_applied[0]), 1):(1, 256)和(1, 256)在列维度拼接变成(1, 512)的output
  544. 6.注意力机制实现 第三步
  545. output = Linear(output).unsqueeze(0)
  546. Linear_attn_combine(hidden_size * 2, hidden_size) 输入维度:隐藏层中神经元数量*2。输出维度:隐藏层中神经元数量。
  547. output = Linear_attn_combine(output).unsqueeze(0)
  548. 线性层的输入张量output:(1, 512) 即 (1, 隐藏层中神经元数量*2)
  549. Linear_attn_combine: 把(1, 512) 转换为 (1, 256)
  550. unsqueeze(0):把(1, 256) 变成 (1, 1, 256)
  551. 线性层的输出张量output:(1, 1, 256)
  552. 7.output = relu(output)
  553. dropout前后的形状都不变,output依旧为(1, 1, 256)
  554. 8.output, hidden = gru(output, hidden)
  555. gru节点输入的output实际为经过注意力机制Attention计算之后的输出张量值,shape为(1, 1, 256)
  556. 1.gru = nn.GRU(hidden_size, hidden_size)
  557. nn.GRU(输入数据的词嵌入维度, 隐藏层中神经元数量) #不写隐藏层层数,缺失值默认为1
  558. hidden_size为256:既为词嵌入维度,又为隐藏层神经元数量
  559. 2.output, hidden = gru(output, hidden)
  560. gru节点输入的output:
  561. 经过注意力机制Attention计算之后的输出张量值,shape为(1, 1, 256) 即 (当前批次的样本个数, 当前样本的序列长度(单词个数), 隐藏层中神经元数量)
  562. hidden:一开始使用初始化的hidden(1, 1, 256)作为第一个gru节点输入,一个gru节点的隐藏状态输出作为下一个gru节点的隐藏状态输入
  563. gru节点输出的output:shape为(1, 1, 256) (当前批次的样本个数, 当前样本的序列长度(单词个数), 隐藏层中神经元数量)
  564. 9.output = F.log_softmax(Linear_out(output[0]), dim=1)
  565. 1.Linear_out = Linear(hidden_size, output_size)
  566. 输入维度:隐藏层中神经元数量, 又是embed_dim词嵌入维度。输出维度:output_size,即解码器输出语言的词汇表大小
  567. 最后实例化gru后面的线性层,也就是我们的解码器输出层
  568. 2.output = Linear_out(output[0])
  569. 输入output的shape为(1, 1, 隐藏层中神经元数量256),output[0]为(1, 隐藏层中神经元数量256)
  570. 输出output的shape为(1, 解码器输出语言的词汇表大小 4345)
  571. 3.log_softmax((1, 4345), dim=1)
  572. softmax前后的形状都不变,把列值上的值转换为概率值
  573. """
  574. def forward(self, input, hidden, encoder_outputs):
  575. """
  576. forward函数的输入参数有三个, 分别是源数据输入张量input, 初始的隐层张量hidden, 以及编码器的输出张量encoder_outputs
  577. """
  578. # 根据结构计算图, 输入张量进行Embedding层并扩展维度
  579. embedded = self.embedding(input).view(1, 1, -1)
  580. # print("embedded.shape:",embedded.shape) #torch.Size([1, 1, 256])
  581. # 使用dropout进行随机丢弃,防止过拟合
  582. embedded = self.dropout(embedded)
  583. # print("embedded.shape:",embedded.shape) ##torch.Size([1, 1, 256])
  584. # 进行attention的权重计算, 哦我们呢使用第一种计算方式:
  585. # 将Q,K进行纵轴拼接, 做一次线性变化, 最后使用softmax处理获得结果
  586. attn_weights = F.softmax(self.attn(torch.cat((embedded[0], hidden[0]), 1)), dim=1)
  587. # print("attn_weights.shape:",attn_weights.shape) #torch.Size([1, 10])
  588. # 然后进行第一步的后半部分, 将得到的权重矩阵与V做矩阵乘法计算, 当二者都是三维张量且第一维代表为batch条数时, 则做bmm运算
  589. attn_applied = torch.bmm(attn_weights.unsqueeze(0),encoder_outputs.unsqueeze(0))
  590. # print("attn_applied.shape:",attn_applied.shape) #torch.Size([1, 1, 256])
  591. # 之后进行第二步, 通过取[0]是用来降维, 根据第一步采用的计算方法, 需要将Q与第一步的计算结果再进行拼接
  592. output = torch.cat((embedded[0], attn_applied[0]), 1)
  593. # print("output.shape:",output.shape) #torch.Size([1, 512])
  594. # 最后是第三步, 使用线性层作用在第三步的结果上做一个线性变换并扩展维度,得到输出
  595. output = self.attn_combine(output).unsqueeze(0)
  596. # print("output.shape:",output.shape) #torch.Size([1, 1, 256])
  597. # attention结构的结果使用relu激活
  598. output = F.relu(output)
  599. # print("output.shape:",output.shape)#torch.Size([1, 1, 256])
  600. # 将激活后的结果作为gru的输入和hidden一起传入其中
  601. output, hidden = self.gru(output, hidden)
  602. # print("output.shape:",output.shape) #torch.Size([1, 1, 256])
  603. # print("hidden.shape:",hidden.shape)#torch.Size([1, 1, 256])
  604. # 最后将结果降维并使用softmax处理得到最终的结果
  605. output = F.log_softmax(self.out(output[0]), dim=1)
  606. # print("output.shape:",output.shape) #torch.Size([1, 4345])
  607. # 返回解码器结果,最后的隐层张量以及注意力权重张量
  608. return output, hidden, attn_weights
  609. def initHidden(self):
  610. """初始化隐层张量函数"""
  611. # 将隐层张量初始化成为1x1xself.hidden_size大小的0张量
  612. return torch.zeros(1, 1, self.hidden_size, device=device)
  613. # #输入参数:取pairs的第一条
  614. # pair = pairs[0]
  615. # #调用
  616. # pair_tensor = tensorsFromPair(pair)
  617. # # print(pair_tensor)
  618. # # (tensor([[2],[3],[4],[1]], device='cuda:0'),
  619. # # tensor([[2],[3],[4],[5],[1]], device='cuda:0'))
  620. #
  621. # #实例化参数
  622. # # hidden_size = 25
  623. # # output_size = 10
  624. # hidden_size = 256
  625. # output_size = output_lang.n_words
  626. # #输入参数
  627. # # pair_tensor[1]代表目标语言即法文的句子,pair_tensor[1][0]代表句子中的第一个词
  628. # input = pair_tensor[1][0]
  629. # hidden = torch.zeros(1, 1, hidden_size)
  630. # print("input:",input) #input: tensor([2], device='cuda:0')
  631. """
  632. 编码器输出状态张量:(句子最大长度MAX_LENGTH, 隐藏层中神经元数量)
  633. 1.encoder中每一个时间步的输出outout堆叠而成的, 每一个时间步的输出outout为(1, 256) 即(句子中的一个单词, 隐藏层中神经元数量),
  634. 而案例中设置了一个句子的最大长度为MAX_LENGTH=10,其中清洗好的句子只包含单词字母和标点符号。
  635. 2.一个句子的最大长度为MAX_LENGTH=10,而且每一个时间步的输出outout为(1, 256),因此encoder_outputs编码器输出为(10, 256),
  636. 即 (句子最大长度MAX_LENGTH, 隐藏层中神经元数量),因此一开始先初始化一个(句子最大长度MAX_LENGTH, 隐藏层中神经元数量)的0值的二维张量,
  637. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  638. """
  639. # # encoder_outputs需要是encoder中每一个时间步的输出堆叠而成
  640. # # 它的形状应该是10x25, 我们这里直接随机初始化一个张量
  641. # # encoder_outputs = torch.randn(10, 25)
  642. # encoder_outputs = torch.randn(10, hidden_size)
  643. #
  644. # #调用
  645. # decoder = AttnDecoderRNN(hidden_size, output_size).to(device)
  646. # output, hidden, attn_weights= decoder(input.to(device), hidden.to(device), encoder_outputs.to(device))
  647. # print(output.shape) #torch.Size([1, 4345])
  648. # print(hidden.shape) #torch.Size([1, 1, 256])
  649. # print(attn_weights.shape) #torch.Size([1, 10])
  650. """
  651. 第四步: 构建模型训练函数, 并进行训练
  652. 1.teacher_forcing
  653. 1.什么是teacher_forcing?
  654. 它是一种用于序列生成任务的训练技巧, 在seq2seq架构中, 根据循环神经网络理论,
  655. 解码器每次应该使用上一步的结果作为输入的一部分, 但是训练过程中,一旦上一步的结果是错误的,
  656. 就会导致这种错误被累积,无法达到训练效果, 因此,我们需要一种机制改变上一步出错的情况,
  657. 因为训练时我们是已知正确的输出应该是什么,因此可以强制将上一步结果设置成正确的输出,
  658. 这种方式就叫做teacher_forcing.
  659. 2.teacher_forcing的作用:
  660. 能够在训练的时候矫正模型的预测,避免在序列生成的过程中误差进一步放大.
  661. teacher_forcing能够极大的加快模型的收敛速度,令模型训练过程更快更平稳.
  662. 2.构建训练函数
  663. 3.调用训练函数并打印日志和制图
  664. 4.构建模型评估函数
  665. """
  666. # 设置teacher_forcing比率为0.5
  667. teacher_forcing_ratio = 0.5
  668. #=========================== 2.构建训练函数 ===========================#
  669. def train(batch_input_tensor, batch_target_tensor, encoder, decoder, encoder_optimizer, decoder_optimizer, criterion, max_length=MAX_LENGTH):
  670. """训练函数, 输入参数有8个, 分别代表input_tensor:
  671. 源语言输入张量,target_tensor:目标语言输入张量,encoder, decoder:编码器和解码器实例化对象
  672. encoder_optimizer, decoder_optimizer:编码器和解码器优化方法,criterion:损失函数计算方法,max_length:句子的最大长度
  673. """
  674. """
  675. input_tensor:shape为[英语句子单词个数, 1]的[[单词对应的索引值]],每个值为英语句子中的每个单词对应在词汇表的索引值
  676. target_tensor:shape为[法语句子单词个数, 1]的[[单词对应的索引值]],每个值为法语句子中的每个单词对应在词汇表的索引值
  677. encoder_hidden:(1, 1, hidden_size) 即(1, 1, 256)
  678. input_length:英语(输入)句子单词个数,即单词的索引值的数量
  679. target_length:法语(输出)句子单词个数,即单词的索引值的数量
  680. encoder_outputs:
  681. 初始化编码器的output输出状态,为每一个时间步在最后一层隐藏层的output输出所封装的二维矩阵,
  682. shape为(句子最大长度max_length, hidden_size) 即(10, 256)
  683. """
  684. # # 编码器和解码器优化器梯度归0
  685. encoder_optimizer.zero_grad()
  686. decoder_optimizer.zero_grad()
  687. """
  688. for循环遍历出输入的英语句子中每个单词对应在词汇表中的索引值
  689. 1.encoder_output, encoder_hidden = encoder(input_tensor[ei], encoder_hidden)
  690. 先调用EncoderRNN类中的forward函数,先逐个把英语单词对应在词汇表的索引值传入到embedding层中输出嵌入化后的向量,
  691. shape为(1, embed_dim),再经过view(1, 1, -1)变成(1,1, embed_dim)。
  692. 然后把嵌入化后的三维张量和hidden状态值输入到GRU中输出output和hidden,两者shape均为(1, 1, hidden_size)。
  693. encoder_hidden:每一层隐藏层的最后一个时间步(最后一个节点)在编码器中隐藏状态值
  694. encoder_output:每一个时间步(每个单词)在编码器中最后一层隐藏层的output输出值
  695. 2.encoder_outputs[ei] = encoder_output[0, 0]
  696. encoder_outputs:
  697. 封装每一个时间步(每个单词)在编码器中最后一层隐藏层的output输出值,
  698. 作为整个编码器的output输出值用于输入到解码器中的每个时间步中。
  699. encoder_output[0, 0]表示把(1, 1, hidden_size)取出为[hidden_size]维度的向量作为每个单词(每个时间步)在编码器中的最终输出值,
  700. 然后存到encoder_outputs用于输入到解码器中的每个时间步中。
  701. """
  702. batch_target_length = 0 # 批量样本的所有每个句子的总时间步
  703. loss = 0 #批量样本的所有句子中的每个时间步的loss总和
  704. """
  705. 遍历批量样本数据中的每个句子
  706. """
  707. for batch_index in range(BATCH_SIZE):
  708. input_tensor = batch_input_tensor[batch_index]
  709. target_tensor = batch_target_tensor[batch_index]
  710. # 根据源文本和目标文本张量获得对应的长度
  711. input_length = input_tensor.size(0)
  712. target_length = target_tensor.size(0)
  713. # 每个句子的总时间步加到一起,即求批量样本的所有每个句子的总时间步
  714. # batch_target_length:最终值即为批量样本所有句子的单词(时间步)的总数
  715. batch_target_length += target_length
  716. """
  717. 遍历每个句子时都重新初始化一次 encoder_hidden、encoder_outputs
  718. """
  719. # 初始化隐层张量
  720. encoder_hidden = encoder.initHidden()
  721. # 初始化编码器输出张量,形状是max_lengthxencoder.hidden_size0张量
  722. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  723. """
  724. 遍历输入句子中的每个单词作为一个时间步输入到编码器
  725. """
  726. # 循环遍历输入张量索引
  727. for ei in range(input_length):
  728. # 根据索引从input_tensor取出对应的单词的张量表示,和初始化隐层张量一同传入encoder对象中
  729. encoder_output, encoder_hidden = encoder(input_tensor[ei], encoder_hidden)
  730. # 将每次获得的输出encoder_output(三维张量), 使用[0, 0]降两维变成向量依次存入到encoder_outputs
  731. # 这样encoder_outputs每一行存的都是对应的句子中每个单词通过编码器的输出结果
  732. encoder_outputs[ei] = encoder_output[0, 0]
  733. # print("encoder_output.shape:",encoder_output.shape)#torch.Size([1, 1, 256]) 即(1, 1, hidden_size)
  734. # print("encoder_hidden.shape:",encoder_hidden.shape)#torch.Size([1, 1, 256]) 即(1, 1, hidden_size)
  735. """
  736. 1.decoder_input = torch.tensor([[SOS_token]], device=device)
  737. 先创建句子起始标志为0值的[[0]]张量,shape为[1, 1],并作为解码器中第一个时间步的输入
  738. 2.decoder_hidden = encoder_hidden 两者shape为[1, 1, 256]
  739. encoder_hidden:每一层隐藏层的最后一个时间步(最后一个节点)在编码器中隐藏状态值
  740. decoder_hidden:把编码器中每一层隐藏层的最后一个时间步(最后一个节点)所封装起来的隐藏状态值 作为 解码器第一个时间步(第一个节点)的初始化隐藏状态值
  741. 3.use_teacher_forcing = True if random.random() < teacher_forcing_ratio else False
  742. teacher_forcing_ratio=0.5:表示random.random()随机出来的数据有一半机会整个判断表达式返回True或False
  743. 当一半机会判断True则执行teacher_forcing机制,当一半机会判断False则不执行teacher_forcing机制。
  744. """
  745. # 初始化解码器的第一个输入,即起始符
  746. decoder_input = torch.tensor([[SOS_token]], device=device)
  747. # print("decoder_input.shape:",decoder_input.shape) #torch.Size([1, 1])
  748. # 初始化解码器的隐层张量即编码器的隐层输出
  749. decoder_hidden = encoder_hidden
  750. # print("decoder_hidden.shape:",decoder_hidden.shape) #[1, 1, 256]
  751. # 根据随机数与teacher_forcing_ratio对比判断是否使用teacher_forcing
  752. use_teacher_forcing = True if random.random() < teacher_forcing_ratio else False
  753. """
  754. 使用teacher_forcing机制
  755. 模型预测中,我们需要将解码器在上⼀个时间步的输出作为当前时间步的输⼊。
  756. 与此不同,在训练中我们也可以将标签序列(训练集的真实输出序列)在上⼀个时间步的标签作为解码器在当前时间步的输⼊。
  757. 这叫作强制教学(teacher forcing)。解码器在某时间步的输⼊为样本输出序列在上⼀时间步的词,即强制教学。
  758. 在编码器—解码器的训练中,可以采⽤强制教学。
  759. for index in range(法语(输出)句子单词个数,即单词的索引值的数量):
  760. # decoder_input:
  761. # 第一个时间步传入的是shape为[1, 1]的起始符[[SOS_token]],
  762. # 后面每个时间步传入的是shape为[英语句子单词个数, 1]所遍历的每个单词对应的索引值,即shape为[1, 1]的[[单词对应的索引值]]。
  763. # decoder_hidden:[1, 1, 256]
  764. # 第一个时间步传入的是decoder_hidden=encoder_hidden,即第一个时间步使用的是编码器输出的隐藏状态值。
  765. # 后面每个时间步传入的是解码器前一时间步输出隐藏状态值。
  766. # encoder_outputs:[10, 256] 即[max_length, 隐藏神经元数量]
  767. # 解码器的每个时间步都传入编码器的output输出,该encoder_outputs封装了编码器每一个时间步在最后一层隐藏层的output输出值。
  768. decoder_output, decoder_hidden, decoder_attention = decoder(decoder_input, decoder_hidden, encoder_outputs)
  769. #target_tensor:shape为[法语(输出)句子单词个数, 1]的[[单词对应的索引值]],每个值为法语(输出)句子中的每个单词对应在词汇表的索引值。
  770. #target_tensor[index]:从shape为[[单词对应的索引值]]的法语(输出)句子中获取每个单词的索引值即[单词对应的索引值]
  771. #decoder_output:解码器输出output为经过了softmax概率值转换操作后的shape为[1, 4345]的概率值矩阵,4345为输出语料的词汇表大小
  772. #loss:使用shape为[1, 4345]的概率值矩阵 和 [单词对应的索引值] 计算loss
  773. loss += criterion(decoder_output, target_tensor[index])
  774. #target_tensor[index]:从shape为[[单词对应的索引值]]的法语(输出)句子中获取每个单词的索引值即[单词对应的索引值]
  775. #把下一个单词对应的索引值(真实标签值)作为解码器的下一个时间步的输入
  776. decoder_input = target_tensor[index]
  777. """
  778. """
  779. 遍历输出句子中的每个单词作为一个时间步输入到解码器
  780. """
  781. # 如果使用teacher_forcing
  782. if use_teacher_forcing:
  783. """
  784. 如果是teacher_forcing,那么将会使用真实标签语句中的值作为解码器时间步的输入。
  785. 第一个时间步输入的是起始符SOS_token,然后后面每个时间步的输入都是真实标签语句中的单词索引值。
  786. 真实标签语句中的最后一个单词索引值为1(结束标志EOS_token),那么当前的循环是没有把1(结束标志EOS_token)再输入到解码器中训练的,
  787. 因为当前range(目标语句长度)中的最后一次循环中target_tensor[di]仅仅是把1(结束标志EOS_token)取出来了,
  788. 然后循环就结束了,并没有机会再次输入到解码器中继续训练。
  789. """
  790. # 循环遍历目标张量索引
  791. for di in range(target_length):
  792. # 将decoder_input, decoder_hidden, encoder_outputs即attention中的QKV,
  793. # 传入解码器对象, 获得decoder_output, decoder_hidden, decoder_attention
  794. decoder_output, decoder_hidden, decoder_attention = decoder(
  795. decoder_input, decoder_hidden, encoder_outputs)
  796. # print("encoder_outputs.shape:", encoder_outputs.shape) #[10, 256]
  797. # print("decoder_output.shape:", decoder_output.shape) #[1, 4345]
  798. # print("decoder_hidden.shape:", decoder_hidden.shape) #[1, 1, 256]
  799. # print("decoder_attention.shape:", decoder_attention.shape) #[1, 10]
  800. # print("target_tensor[di].shape:", target_tensor[di].shape) #[1]
  801. # print("target_tensor[di]:", target_tensor[di]) #一维张量 [一个单词对应的索引值]
  802. # print("decoder_output:", decoder_output.argmax(-1)) #二维张量 取[1, 4345]中的最后一个维度/第二个维度的最大概率值的索引位置
  803. # 因为使用了teacher_forcing, 无论解码器输出的decoder_output是什么, 我们都只
  804. # 使用‘正确的答案’,即target_tensor[di]来计算损失
  805. loss += criterion(decoder_output, target_tensor[di])
  806. # 并强制将下一次的解码器输入设置为‘正确的答案’
  807. decoder_input = target_tensor[di]
  808. else:
  809. # 如果不使用teacher_forcing
  810. # 仍然遍历目标张量索引
  811. for di in range(target_length):
  812. # 将decoder_input, decoder_hidden, encoder_outputs传入解码器对象
  813. # 获得decoder_output, decoder_hidden, decoder_attention
  814. decoder_output, decoder_hidden, decoder_attention = decoder(
  815. decoder_input, decoder_hidden, encoder_outputs)
  816. """
  817. #decoder_output:解码器输出output为经过了softmax概率值转换操作后的shape为[1, 4345]的概率值矩阵,4345为输出语料的词汇表大小
  818. #top_n,top_i = topk(K):从维度4345的概率值的向量值中获取最大概率类别值和对应的索引值,该索引值即代表某单词在词汇表中的索引值。
  819. #top_n:最大概率值。top_i:最大概率值的索引值。
  820. topv, topi = decoder_output.topk(1)
  821. """
  822. # 只不过这里我们将从decoder_output取出答案
  823. topv, topi = decoder_output.topk(1)
  824. # 损失计算仍然使用decoder_output和target_tensor[di]
  825. loss += criterion(decoder_output, target_tensor[di])
  826. # 最后如果输出值是终止符,则循环停止
  827. if topi.squeeze().item() == EOS_token:
  828. break
  829. """
  830. 使用teacher_forcing机制
  831. #topi:从维度4345的概率值的向量值中获取最大概率值的索引值,该索引值即代表某单词在词汇表中的索引值。
  832. #decoder_input:把下一个单词对应的索引值(真实标签值)作为解码器的下一个时间步的输入
  833. #detach:具有分离作用使得这个decoder_input与模型构建的张量图无关,相当于全新的外界输入
  834. decoder_input = topi.squeeze().detach()
  835. """
  836. # 否则,并对topi降维并分离赋值给decoder_input以便进行下次运算
  837. # 这里的detach的分离作用使得这个decoder_input与模型构建的张量图无关,相当于全新的外界输入
  838. decoder_input = topi.squeeze().detach()
  839. """
  840. 使用批量样本数据所有输出句子中的所有每个单词(时间步)对应的解码器训练输出的loss损失值的总和的值来求反导梯度值,用于更新参数
  841. """
  842. # 误差进行反向传播
  843. loss.backward()
  844. # 编码器和解码器进行优化即参数更新
  845. encoder_optimizer.step()
  846. decoder_optimizer.step()
  847. """
  848. batch_target_length:最终值即为批量样本所有句子的单词(时间步)的总数
  849. loss/batch_target_length:求出每个单词(时间步)的平均loss损失
  850. """
  851. # 计算每个时间步(每个单词)的平均损失
  852. return loss.item() / batch_target_length
  853. #=========================== 3.调用训练函数并打印日志和制图 ===========================#
  854. # 导入plt以便绘制损失曲线
  855. import matplotlib.pyplot as plt
  856. # 导入torch中的数据加载器方法
  857. from torch.utils.data import DataLoader
  858. def trainIters(encoder, decoder, n_iters, print_every=1000, plot_every=100 ):
  859. """
  860. 训练迭代函数, 输入参数有6个,
  861. 分别是 encoder, decoder: 编码器和解码器对象;n_iters: 总迭代步数;
  862. print_every:打印日志间隔; plot_every:绘制损失曲线间隔; learning_rate:学习率
  863. """
  864. """
  865. 1.可先用 SGD/Adam(lr=0.01) batch size为32/64 等这样的参数优化 loss到1.0左右,然后保存模型到本地文件
  866. 2.然后加载上一次训练的文件,换用更小的优化率SGD/Adam(lr=0.001)来进行下一步更新
  867. optimizer优化器对象 = optim.Adam(继承了“nn.Module”的自定义类对象.parameters(), lr=learning_rate) """
  868. # 使用预定义的SGD作为优化器,将参数和学习率传入其中
  869. encoder_optimizer = optim.Adam(encoder.parameters(), lr=0.001)
  870. decoder_optimizer = optim.Adam(decoder.parameters(), lr=0.001)
  871. """
  872. nn.LogSoftmax + nn.NLLLoss = 交叉熵Cross Entropy
  873. F.log_softmax + F.nll_loss = 交叉熵Cross Entropy
  874. torch.nn.CrossEntropyLoss()(内置softmax,无需显式写softmax层)= 交叉熵Cross Entropy
  875. """
  876. # 选择损失函数
  877. criterion = nn.NLLLoss()
  878. # 获得训练开始时间戳
  879. start = time.time()
  880. # 每个损失间隔的平均损失保存列表,用于绘制损失曲线
  881. plot_losses = []
  882. encoder.load_state_dict(torch.load("./model_save/encoder2_0.4831.pkl"))
  883. decoder.load_state_dict(torch.load("./model_save/decoder2_0.4831.pkl"))
  884. # 根据设置迭代步进行循环
  885. for iter in range(1, n_iters + 1):
  886. times = 0
  887. # 每个打印日志间隔的总损失,初始为0
  888. print_loss_total = 0
  889. # 每次从语言对列表中随机取出一条作为训练语句
  890. # 返回的是元祖,元祖中第一个元素为英语句子中的每个单词对应在词汇表的索引值所封装的二维数组,
  891. # 元祖中第二个元素为法语句子中的每个单词对应在词汇表的索引值所封装的二维数组
  892. # training_pair = tensorsFromPair(random.choice(pairs))
  893. """
  894. pairs
  895. pairs的shape为(10599, 2),pairs列表中包含10599个小列表,每个小列表中有两个字符串元素值。
  896. 第一个是英语句子字符串,第二个是法语句子字符串
  897. training_pair:
  898. 处理后完的批量数据的维度为[batch_size, 句子单词个数],其中句子单词个数中每个数值实际为单词对应的索引值
  899. """
  900. # drop_last=True:丢弃不满足批量大小的批量数据,一般会是最后一个批量数据中的样本数可能不满足于批量大小,因此需要丢弃以防止报错
  901. training_pair = DataLoader(pairs, batch_size=BATCH_SIZE, shuffle=True, collate_fn=tensorsFromPair, drop_last=True)
  902. # print("len(training_pair):",len(training_pair)) #165 表示一共有 165 个 批量大小为64的 批量数据
  903. #遍历每个批量数据
  904. for i, (english, french) in enumerate(training_pair):
  905. loss = train(english, french, encoder, decoder, encoder_optimizer, decoder_optimizer, criterion)
  906. # 将损失进行累和
  907. print_loss_total += loss
  908. # print(input_tensor)
  909. times += 1 # 记录迭代次数
  910. # 将平均损失装进plot_losses列表
  911. plot_losses.append(loss)
  912. # 打印日志,日志内容分别是:训练耗时,当前迭代步,当前进度百分比,当前平均损失
  913. print('耗时:%s epoch次数:%d 第%d个批次 loss:%.4f 平均loss:%.4f' % (timeSince(start), iter, i, loss, print_loss_total / times))
  914. # 打印日志,日志内容分别是:训练耗时,当前迭代步,当前进度百分比,当前平均损失
  915. print('耗时:%s epoch次数:%d 总批量个数%d 平均loss:%.4f' % (timeSince(start), iter, i, print_loss_total / times))
  916. # 绘制损失曲线
  917. plt.figure()
  918. plt.plot(plot_losses)
  919. # 保存到指定路径
  920. plt.savefig("./"+str(iter)+"_loss.png")
  921. torch.save(encoder1.state_dict(), './model_save/encoder1.pt')
  922. torch.save(attn_decoder1.state_dict(), './model_save/attn_decoder1.pt')
  923. #输入参数:
  924. # 设置隐层大小为256 ,也是词嵌入维度
  925. hidden_size = 256
  926. # 通过input_lang.n_words获取输入词汇总数 2803,与hidden_size 256一同传入EncoderRNN类中
  927. # 得到编码器对象encoder1
  928. encoder1 = EncoderRNN(input_lang.n_words, hidden_size).to(device)
  929. # 通过output_lang.n_words获取目标词汇总数 4345,与hidden_size 256 和dropout_p一同传入AttnDecoderRNN类中
  930. # 得到解码器对象attn_decoder1
  931. attn_decoder1 = AttnDecoderRNN(hidden_size, output_lang.n_words, dropout_p=0.1).to(device)
  932. # 设置迭代步数
  933. n_iters = 10
  934. BATCH_SIZE = 64
  935. # 设置日志打印间隔
  936. print_every = 5000
  937. # 调用trainIters进行模型训练,将编码器对象encoder1,码器对象attn_decoder1,迭代步数,日志打印间隔传入其中
  938. trainIters(encoder1, attn_decoder1, n_iters, print_every=print_every)
  939. """
  940. 第五步: 构建模型评估函数, 并进行测试以及Attention效果分析.
  941. 1.构建模型评估函数
  942. 2.随机选择指定数量的数据进行评估
  943. """
  944. #============================ 1.构建模型评估函数 =============================================#
  945. def evaluate(encoder, decoder, sentence, max_length=MAX_LENGTH):
  946. """评估函数,输入参数有4个,分别是encoder, decoder: 编码器和解码器对象,
  947. sentence:需要评估的句子,max_length:句子的最大长度"""
  948. # 评估阶段不进行梯度计算
  949. with torch.no_grad():
  950. # 对输入的句子进行张量表示
  951. input_tensor = tensorFromSentence(input_lang, sentence)
  952. # 获得输入的句子长度
  953. input_length = input_tensor.size()[0]
  954. # 初始化编码器隐层张量
  955. encoder_hidden = encoder.initHidden()
  956. # 初始化编码器输出张量,是max_lengthxencoder.hidden_size0张量
  957. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  958. # 循环遍历输入张量索引
  959. for ei in range(input_length):
  960. # 根据索引从input_tensor取出对应的单词的张量表示,和初始化隐层张量一同传入encoder对象中
  961. encoder_output, encoder_hidden = encoder(input_tensor[ei],
  962. encoder_hidden)
  963. #将每次获得的输出encoder_output(三维张量), 使用[0, 0]降两维变成向量依次存入到encoder_outputs
  964. # 这样encoder_outputs每一行存的都是对应的句子中每个单词通过编码器的输出结果
  965. encoder_outputs[ei] += encoder_output[0, 0]
  966. # 初始化解码器的第一个输入,即起始符
  967. decoder_input = torch.tensor([[SOS_token]], device=device)
  968. # 初始化解码器的隐层张量即编码器的隐层输出
  969. decoder_hidden = encoder_hidden
  970. # 初始化预测的词汇列表
  971. decoded_words = []
  972. """
  973. decoder_attentions = torch.zeros(max_length, max_length)
  974. 因为一个注意力权重矩阵attn_weights的shape为(1, max_length),即(1, 10)。
  975. 而由于for循环要遍历max_length次,即最多遍历10次,如果中途预测为'<EOS>'则提早停止循环。
  976. 注意力权重矩阵attn_weights = F.softmax(Linear_attn的输出):softmax把(1, 10)转换为概率值的(1, 10)
  977. 因此最终初始化的decoder_attentions的shape要为(max_length, max_length),即(10, 10)。
  978. decoder_attentions[di] = decoder_attention.data
  979. 每个时间步输出的decoder_attention的shape为(1, max_length),那么遍历到最多max_length次的话,
  980. 那么[max_length, max_length]的decoder_attentions整个都会被赋值。
  981. """
  982. # 初始化attention张量
  983. decoder_attentions = torch.zeros(max_length, max_length)
  984. # 开始循环解码
  985. for di in range(max_length):
  986. # 将decoder_input, decoder_hidden, encoder_outputs传入解码器对象
  987. # 获得decoder_output, decoder_hidden, decoder_attention
  988. decoder_output, decoder_hidden, decoder_attention = decoder(
  989. decoder_input, decoder_hidden, encoder_outputs)
  990. # 取所有的attention结果存入初始化的attention张量中
  991. decoder_attentions[di] = decoder_attention.data
  992. """
  993. #decoder_output:解码器输出output为经过了softmax概率值转换操作后的shape为[1, 4345]的概率值矩阵,4345为输出语料的词汇表大小
  994. #topv, top_i = topk(K):从维度4345的概率值的向量值中获取最大概率类别值和对应的索引值,该索引值即代表某单词在词汇表中的索引值。
  995. #topv:最大概率值。top_i:最大概率值的索引值。
  996. topv, topi = decoder_output.data.topk(1)
  997. """
  998. # 从解码器输出中获得概率最高的值及其索引对象
  999. topv, topi = decoder_output.data.topk(1)
  1000. """ topi最大概率值的索引值 == EOS_token即1的话,那么停止遍历,并在输出语句decoded_words中添加结束标志符<EOS> """
  1001. # 从索引对象中取出它的值与结束标志值作对比
  1002. if topi.item() == EOS_token:
  1003. # 如果是结束标志值,则将结束标志装进decoded_words列表,代表翻译结束
  1004. decoded_words.append('<EOS>')
  1005. # 循环退出
  1006. break
  1007. else:
  1008. """
  1009. decoded_words.append(output_lang.index2word[topi.item()])
  1010. 从index2word字段中根据topi最大概率值的索引值取出对应的单词并添加在输出语句decoded_words中
  1011. """
  1012. # 否则,根据索引找到它在输出语言的index2word字典中对应的单词装进decoded_words
  1013. decoded_words.append(output_lang.index2word[topi.item()])
  1014. """
  1015. #topi:从维度4345的概率值的向量值中获取最大概率值的索引值,该索引值即代表某单词在词汇表中的索引值。
  1016. #decoder_input:把下一个单词对应的索引值(真实标签值)作为解码器的下一个时间步的输入
  1017. #detach:具有分离作用使得这个decoder_input与模型构建的张量图无关,相当于全新的外界输入
  1018. decoder_input = topi.squeeze().detach()
  1019. """
  1020. # 最后将本次预测的索引降维并分离赋值给decoder_input,以便下次进行预测
  1021. decoder_input = topi.squeeze().detach()
  1022. """ decoder_attentions[:di + 1]:因为左闭右开的关系,所以需要+1 """
  1023. # 返回结果decoded_words, 以及完整注意力张量, 把没有用到的部分切掉
  1024. return decoded_words, decoder_attentions[:di + 1]
  1025. #============================ 2.随机选择指定数量的数据进行评估 =============================================#
  1026. def evaluateRandomly(encoder, decoder, n=6):
  1027. """随机测试函数, 输入参数encoder, decoder代表编码器和解码器对象,n代表测试数"""
  1028. # 对测试数进行循环
  1029. for i in range(n):
  1030. # 从pairs随机选择语言对
  1031. pair = random.choice(pairs)
  1032. # > 代表输入
  1033. print('>', pair[0])
  1034. # = 代表正确的输出
  1035. print('=', pair[1])
  1036. # 调用evaluate进行预测
  1037. output_words, attentions = evaluate(encoder, decoder, pair[0])
  1038. # 将结果连成句子
  1039. output_sentence = ' '.join(output_words)
  1040. # < 代表模型的输出
  1041. print('<', output_sentence)
  1042. print('')
  1043. # 调用evaluateRandomly进行模型测试,将编码器对象encoder1,码器对象attn_decoder1传入其中
  1044. evaluateRandomly(encoder1, attn_decoder1)
  1045. #绘制 Attention张量制图
  1046. sentence = "we re both teachers ."
  1047. # 调用评估函数
  1048. output_words, attentions = evaluate(
  1049. encoder1, attn_decoder1, sentence)
  1050. print(output_words)
  1051. # 将attention张量转化成numpy, 使用matshow绘制
  1052. plt.matshow(attentions.numpy())
  1053. # 保存图像
  1054. plt.savefig("./s2s_attn.png")
  1055. """
  1056. Attention图像的纵坐标代表输入的源语言各个词汇对应的索引, 0-6分别对应["we", "re", "both", "teachers", ".", ""],
  1057. 纵坐标代表生成的目标语言各个词汇对应的索引, 0-7代表['nous', 'sommes', 'toutes', 'deux', 'enseignantes', '.', ''],
  1058. 图中浅色小方块(颜色越浅说明影响越大)代表词汇之间的影响关系, 比如源语言的第1个词汇对生成目标语言的第1个词汇影响最大,
  1059. 源语言的第4,5个词对生成目标语言的第5个词会影响最大, 通过这样的可视化图像,
  1060. 我们可以知道Attention的效果好坏, 与我们人为去判定到底还有多大的差距. 进而衡量我们训练模型的可用性.
  1061. """

  1. from io import open
  2. import glob
  3. import os
  4. import string
  5. import unicodedata
  6. import random
  7. import time
  8. import math
  9. import torch
  10. import torch.nn as nn
  11. import matplotlib.pyplot as plt
  12. all_letters = string.ascii_letters + " .,;'"
  13. n_letters = len(all_letters)
  14. # print("n_letters:", n_letters)
  15. # 函数的作用是去掉一些语言中的重音标记
  16. def unicodeToAscii(s):
  17. return ''.join(c for c in unicodedata.normalize('NFD', s)
  18. if unicodedata.category(c) != 'Mn'
  19. and c in all_letters)
  20. s = "Ślusàrski"
  21. a = unicodeToAscii(s)
  22. # print(a)
  23. data_path = "./data/names/"
  24. def readLines(filename):
  25. # 打开指定的文件并读取所有的内容, 使用strip()去除掉两侧的空白符, 然后以'\n'为换行符进行切分
  26. lines = open(filename, encoding='utf-8').read().strip().split('\n')
  27. return [unicodeToAscii(line) for line in lines]
  28. filename = data_path + "Chinese.txt"
  29. result = readLines(filename)
  30. # print(result[:20])
  31. # 构建一个人名类别与具体人名对应关系的字典
  32. category_lines = {}
  33. # 构建所有类别的列表
  34. all_categories = []
  35. # 遍历所有的文件, 使用glob.glob中可以利用正则表达式的便利
  36. for filename in glob.glob(data_path + "*.txt"):
  37. # 获取每个文件的文件名, 起始就是得到名字的类别
  38. category = os.path.splitext(os.path.basename(filename))[0]
  39. # 逐一将其装入所有类别的列表中
  40. all_categories.append(category)
  41. # 然后读取每个文件的内容, 形成名字的列表
  42. lines = readLines(filename)
  43. # 按照对应的类别, 将名字列表写入到category_lines字典中
  44. category_lines[category] = lines
  45. n_categories = len(all_categories)
  46. # print("n_categories:", n_categories)
  47. # print(category_lines['Italian'][:10])
  48. def lineToTensor(line):
  49. # 首先初始化一个全0的张量, 这个张量的形状是(len(line), 1, n_letters)
  50. # 代表人名中的每一个字母都用一个(1 * n_letters)张量来表示
  51. tensor = torch.zeros(len(line), 1, n_letters)
  52. # 遍历每个人名中的每个字符, 并搜索其对应的索引, 将该索引位置置1
  53. for li, letter in enumerate(line):
  54. tensor[li][0][all_letters.find(letter)] = 1
  55. return tensor
  56. line = "Bai"
  57. line_tensor = lineToTensor(line)
  58. # print("line_tensor:", line_tensor)
  59. # x = torch.tensor([1, 2, 3, 4])
  60. # print(x.shape)
  61. # y = torch.unsqueeze(x, 0)
  62. # print(y.shape)
  63. # z = torch.unsqueeze(x, 1)
  64. # print(z)
  65. # print(z.shape)
  66. class RNN(nn.Module):
  67. def __init__(self, input_size, hidden_size, output_size, num_layers=1):
  68. # input_size: 代表RNN输入的最后一个维度
  69. # hidden_size: 代表RNN隐藏层的最后一个维度
  70. # output_size: 代表RNN网络最后线性层的输出维度
  71. # num_layers: 代表RNN网络的层数
  72. super(RNN, self).__init__()
  73. self.input_size = input_size
  74. self.hidden_size = hidden_size
  75. self.output_size = output_size
  76. self.num_layers = num_layers
  77. # 实例化预定义的RNN,三个参数分别是input_size, hidden_size, num_layers
  78. self.rnn = nn.RNN(input_size, hidden_size, num_layers)
  79. # 实例化全连接线性层, 作用是将RNN的输出维度转换成指定的输出维度
  80. self.linear = nn.Linear(hidden_size, output_size)
  81. # 实例化nn中预定义的Softmax层, 用于从输出层中获得类别的结果
  82. self.softmax = nn.LogSoftmax(dim=-1)
  83. def forward(self, input1, hidden):
  84. # input1: 代表人名分类器中的输入张量, 形状是1 * n_letters
  85. # hidden: 代表RNN的隐藏层张量, 形状是 self.num_layers * 1 * self.hidden_size
  86. # 注意一点: 输入到RNN中的张量要求是三维张量, 所以需要用unsqueeze()函数扩充维度
  87. input1 = input1.unsqueeze(0)
  88. # 将input1和hidden输入到RNN的实例化对象中, 如果num_layers=1, rr恒等于hn
  89. rr, hn = self.rnn(input1, hidden)
  90. # 将从RNN中获得的结果通过线性层的变换和softmax层的处理, 最终返回
  91. return self.softmax(self.linear(rr)), hn
  92. def initHidden(self):
  93. # 本函数的作用是用来初始化一个全零的隐藏层张量, 维度是3
  94. return torch.zeros(self.num_layers, 1, self.hidden_size)
  95. class LSTM(nn.Module):
  96. def __init__(self, input_size, hidden_size, output_size, num_layers=1):
  97. # input_size: 代表输入张量x中最后一个维度
  98. # hidden_size: 代表隐藏层张量的最后一个维度
  99. # output_size: 代表线性层最后的输出维度
  100. # num_layers: 代表LSTM网络的层数
  101. super(LSTM, self).__init__()
  102. self.input_size = input_size
  103. self.hidden_size = hidden_size
  104. self.output_size = output_size
  105. self.num_layers = num_layers
  106. # 实例化LSTM对象
  107. self.lstm = nn.LSTM(input_size, hidden_size, num_layers)
  108. # 实例化线性层, 作用是将LSTM网络的输出维度转换成指定的输出维度
  109. self.linear = nn.Linear(hidden_size, output_size)
  110. # 实例化nn中预定义的Softmax层, 作用从输出层的张量中得到类别结果
  111. self.softmax = nn.LogSoftmax(dim=-1)
  112. def forward(self, input1, hidden, c):
  113. # 注意: LSTM网络的输入有3个张量,尤其不要忘记细胞状态c
  114. input1 = input1.unsqueeze(0)
  115. # 将3个参数输入到LSTM对象中
  116. rr, (hn, cn) = self.lstm(input1, (hidden, c))
  117. # 最后将3个张量结果全部返回, 同时rr要经过线性层和softmax的处理
  118. return self.softmax(self.linear(rr)), hn, cn
  119. def initHiddenAndC(self):
  120. # 注意: 对于LSTM来说, 初始化的时候要同时初始化hidden和细胞状态c
  121. # hidden和c的形状保持一致
  122. c = hidden = torch.zeros(self.num_layers, 1, self.hidden_size)
  123. return hidden, c
  124. class GRU(nn.Module):
  125. def __init__(self, input_size, hidden_size, output_size, num_layers=1):
  126. # input_size: 代表输入张量x最后一个维度
  127. # hidden_size: 代表隐藏层最后一个维度
  128. # output_size: 代表指定的线性层输出的维度
  129. # num_layers: 代表GRU网络的层数
  130. super(GRU, self).__init__()
  131. self.input_size = input_size
  132. self.hidden_size = hidden_size
  133. self.output_size = output_size
  134. self.num_layers = num_layers
  135. # 实例化GRU对象
  136. self.gru = nn.GRU(input_size, hidden_size, num_layers)
  137. # 实例化线性层的对象
  138. self.linear = nn.Linear(hidden_size, output_size)
  139. # 定义softmax对象, 作用是从输出张量中得到类别分类
  140. self.softmax = nn.LogSoftmax(dim=-1)
  141. def forward(self, input1, hidden):
  142. input1 = input1.unsqueeze(0)
  143. rr, hn = self.gru(input1, hidden)
  144. return self.softmax(self.linear(rr)), hn
  145. def initHidden(self):
  146. return torch.zeros(self.num_layers, 1, self.hidden_size)
  147. # 参数
  148. input_size = n_letters
  149. n_hidden = 128
  150. output_size = n_categories
  151. input1 = lineToTensor('B').squeeze(0)
  152. hidden = c = torch.zeros(1, 1, n_hidden)
  153. rnn = RNN(input_size, n_hidden, output_size)
  154. lstm = LSTM(input_size, n_hidden, output_size)
  155. gru = GRU(input_size, n_hidden, output_size)
  156. rnn_output, next_hidden = rnn(input1, hidden)
  157. # print('rnn:', rnn_output)
  158. # print('rnn_shape:', rnn_output.shape)
  159. # print('***********')
  160. lstm_output, next_hidden1, c = lstm(input1, hidden, c)
  161. # print('lstm:', lstm_output)
  162. # print('lstm_shape:', lstm_output.shape)
  163. # print('***********')
  164. gru_output, next_hidden2 = gru(input1, hidden)
  165. # print('gru:', gru_output)
  166. # print('gru_shape:', gru_output.shape)
  167. def categoryFromOutput(output):
  168. # output: 从输出结果中得到指定的类别
  169. # 需要调用topk()函数, 得到最大的值和索引, 作为我们的类别信息
  170. top_n, top_i = output.topk(1)
  171. # 从top_i中取出索引的值
  172. category_i = top_i[0].item()
  173. # 从前面已经构造号的all_categories中得到对应语言的类别,返回类别和索引
  174. return all_categories[category_i], category_i
  175. # x = torch.arange(1, 6)
  176. # print(x)
  177. # res = torch.topk(x, 3)
  178. # print(res)
  179. # category, category_i = categoryFromOutput(gru_output)
  180. # print('category:', category)
  181. # print('category_i:', category_i)
  182. def randomTrainingExample():
  183. # 该函数的作用用于随机产生训练数据
  184. # 第一步使用random.choice()方法从all_categories中随机选择一个类别
  185. category = random.choice(all_categories)
  186. # 第二步通过category_lines字典取出category类别对应的名字列表
  187. line = random.choice(category_lines[category])
  188. # 第三步将类别封装成tensor
  189. category_tensor = torch.tensor([all_categories.index(category)], dtype=torch.long)
  190. # 将随机取到的名字通过函数lineToTensor()转换成onehot张量
  191. line_tensor = lineToTensor(line)
  192. return category, line, category_tensor, line_tensor
  193. # for i in range(10):
  194. # category, line, category_tensor, line_tensor = randomTrainingExample()
  195. # print('category = ', category, ' / line = ', line, ' / category_tensor = ', category_tensor)
  196. # print('line_tensor = ', line_tensor)
  197. # a = torch.randn(4)
  198. # print(a)
  199. # b = torch.randn(4, 1)
  200. # print(b)
  201. # print('---------------')
  202. # c = torch.add(a, b)
  203. # print(c)
  204. # d = torch.add(a, b, alpha=10)
  205. # print(d)
  206. # 定义损失函数, nn.NLLLoss()函数, 因为和RNN最后一层的nn.LogSoftmax()逻辑匹配
  207. criterion = nn.NLLLoss()
  208. # 设置学习率为0.005
  209. learning_rate = 0.005
  210. def trainRNN(category_tensor, line_tensor):
  211. # category_tensor: 代表训练数据的标签
  212. # line_tensor: 代表训练数据的特征
  213. # 第一步要初始化一个RNN隐藏层的张量
  214. hidden = rnn.initHidden()
  215. # 关键的一步: 将模型结构中的梯度归零
  216. rnn.zero_grad()
  217. # 循环遍历训练数据line_tensor中的每一个字符, 传入RNN中, 并且迭代更新hidden
  218. for i in range(line_tensor.size()[0]):
  219. output, hidden = rnn(line_tensor[i], hidden)
  220. # 因为RNN的输出是三维张量, 为了满足category_tensor, 需要进行降维操作
  221. loss = criterion(output.squeeze(0), category_tensor)
  222. # 进行反向传播
  223. loss.backward()
  224. # 显示的更新模型中所有的参数
  225. for p in rnn.parameters():
  226. # 将参数的张量标识与参数的梯度进行乘法运算并乘以学习率, 结果加到参数上, 并进行覆盖更新
  227. p.data.add_(-learning_rate, p.grad.data)
  228. # 返回RNN最终的输出结果output, 和模型的损失loss
  229. return output, loss.item()
  230. def trainLSTM(category_tensor, line_tensor):
  231. # 初始化隐藏层张量, 以及初始化细胞状态
  232. hidden, c = lstm.initHiddenAndC()
  233. # 先要将LSTM网络的梯度归零
  234. lstm.zero_grad()
  235. # 遍历所有的输入时间步的xi
  236. for i in range(line_tensor.size()[0]):
  237. # 注意LSTM每次输入包含3个张量
  238. output, hidden, c = lstm(line_tensor[i], hidden, c)
  239. # 将预测张量, 和目标标签张量输入损失函数中
  240. loss = criterion(output.squeeze(0), category_tensor)
  241. # 进行反向传播
  242. loss.backward()
  243. # 进行参数的显示更新
  244. for p in lstm.parameters():
  245. p.data.add_(-learning_rate, p.grad.data)
  246. return output, loss.item()
  247. def trainGRU(category_tensor, line_tensor):
  248. # 注意GRU网络初始化的时候只需要初始化一个隐藏层的张量
  249. hidden = gru.initHidden()
  250. # 首先将GRU网络的梯度进行清零
  251. gru.zero_grad()
  252. # 遍历所有的输入时间步的xi
  253. for i in range(line_tensor.size()[0]):
  254. output, hidden = gru(line_tensor[i], hidden)
  255. # 将预测的张量值和真实的张量标签传入损失函数中
  256. loss = criterion(output.squeeze(0), category_tensor)
  257. # 进行反向传播
  258. loss.backward()
  259. # 进行参数的显示更新
  260. for p in gru.parameters():
  261. p.data.add_(-learning_rate, p.grad.data)
  262. return output, loss.item()
  263. def timeSince(since):
  264. # 本函数的作用是打印每次训练的耗时, since是训练开始的时间
  265. # 第一步获取当前的时间
  266. now = time.time()
  267. # 第二步得到时间差
  268. s = now - since
  269. # 第三步计算得到分钟数
  270. m = math.floor(s / 60)
  271. # 第四步得到秒数
  272. s -= m * 60
  273. # 返回指定格式的耗时
  274. return '%dm %ds' % (m, s)
  275. # since = time.time() - 10 * 60
  276. # period = timeSince(since)
  277. # print(period)
  278. # 设置训练的迭代次数
  279. n_iters = 1000
  280. # 设置结果的打印间隔
  281. print_every = 50
  282. # 设置绘制损失曲线上的制图间隔
  283. plot_every = 10
  284. def train(train_type_fn):
  285. # train_type_fn代表选择哪种模型来训练函数, 比如选择trainRNN
  286. # 初始化存储每个制图间隔损失的列表
  287. all_losses = []
  288. # 获取训练开始的时间
  289. start = time.time()
  290. # 设置初始间隔的损失值等于0
  291. current_loss = 0
  292. # 迭代训练
  293. for iter in range(1, n_iters + 1):
  294. # 通过randomTrainingExample()函数随机获取一组训练数据和标签
  295. category, line, category_tensor, line_tensor = randomTrainingExample()
  296. # 将训练特征和标签张量传入训练函数中, 进行模型的训练
  297. output, loss = train_type_fn(category_tensor, line_tensor)
  298. # 累加损失值
  299. current_loss += loss
  300. # 如果到了迭代次数的打印间隔
  301. if iter % print_every == 0:
  302. # 取该迭代步的output通过函数categoryFromOutput()获取对应的类别和索引
  303. guess, guess_i = categoryFromOutput(output)
  304. # 判断和真实的类别标签进行比较, 如果相同则为True,如果不同则为False
  305. correct = 'True' if guess == category else 'False (%s)' % category
  306. # 打印若干信息
  307. print('%d %d%% (%s) %.4f %s / %s %s' % (iter, iter/n_iters*100, timeSince(start), loss, line, guess, correct))
  308. # 如果到了迭代次数的制图间隔
  309. if iter % plot_every == 0:
  310. # 将过去若干轮的平均损失值添加到all_losses列表中
  311. all_losses.append(current_loss / plot_every)
  312. # 将间隔损失值重置为0
  313. current_loss = 0
  314. # 返回对应的总损失列表, 并返回训练的耗时
  315. return all_losses, int(time.time() - start)
  316. # 调用train函数, 分别传入RNN, LSTM, GRU的训练函数
  317. # 返回的损失列表, 以及训练时间
  318. # all_losses1, period1 = train(trainRNN)
  319. # all_losses2, period2 = train(trainLSTM)
  320. # all_losses3, period3 = train(trainGRU)
  321. # 绘制损失对比曲线
  322. # plt.figure(0)
  323. # plt.plot(all_losses1, label="RNN")
  324. # plt.plot(all_losses2, color="red", label="LSTM")
  325. # plt.plot(all_losses3, color="orange", label="GRU")
  326. # plt.legend(loc="upper left")
  327. # 绘制训练耗时的柱状图
  328. # plt.figure(1)
  329. # x_data = ["RNN", "LSTM", "GRU"]
  330. # y_data = [period1, period2, period3]
  331. # plt.bar(range(len(x_data)), y_data, tick_label=x_data)
  332. def evaluateRNN(line_tensor):
  333. # 评估函数, 仅有一个参数, line_tensor代表名字的张量标识
  334. # 初始化一个隐藏层的张量
  335. hidden = rnn.initHidden()
  336. # 将评估数据line_tensor中的每一个字符逐个传入RNN中
  337. for i in range(line_tensor.size()[0]):
  338. output, hidden = rnn(line_tensor[i], hidden)
  339. # 返回整个RNN的输出output
  340. return output.squeeze(0)
  341. def evaluateLSTM(line_tensor):
  342. # 评估函数, 针对LSTM模型, 仅有一个参数, line_tensor代表名字的张量表示
  343. # 初始化一个隐藏层的张量, 同时再初始化一个细胞状态
  344. hidden, c = lstm.initHiddenAndC()
  345. # 将评估数据line_tensor中的每一个字符逐个传入LSTM中
  346. for i in range(line_tensor.size()[0]):
  347. output, hidden, c = lstm(line_tensor[i], hidden, c)
  348. # 返回整个LSTM的输出output, 同时完成降维的操作
  349. return output.squeeze(0)
  350. def evaluateGRU(line_tensor):
  351. # 评估函数, 针对GRU模型, 仅有一个参数, line_tensor代表名字的张量表示
  352. # 初始化一个隐藏层的张量
  353. hidden = gru.initHidden()
  354. # 将评估数据line_tensor中的每一个字符逐个传入GRU中
  355. for i in range(line_tensor.size()[0]):
  356. output, hidden = gru(line_tensor[i], hidden)
  357. # 返回整个GRU的输出output, 同时完成降维的操作
  358. return output.squeeze(0)
  359. # line = "Bai"
  360. # line_tensor = lineToTensor(line)
  361. # rnn_output = evaluateRNN(line_tensor)
  362. # lstm_output = evaluateLSTM(line_tensor)
  363. # gru_output = evaluateGRU(line_tensor)
  364. # print('rnn_output:', rnn_output)
  365. # print('lstm_output:', lstm_output)
  366. # print('gru_output:', gru_output)
  367. def predict(input_line, evaluate_fn, n_predictions=3):
  368. # input_line: 代表输入的字符串名字
  369. # evaluate_fn: 代表评估的模型函数, RNN, LSTM, GRU
  370. # n_predictions: 代表需要取得最有可能的n_predictions个结果
  371. # 首先将输入的名字打印出来
  372. print('\n> %s' % input_line)
  373. # 注意: 所有的预测函数都不能改变模型的参数
  374. with torch.no_grad():
  375. # 使用输入的人名转换成张量, 然后调用评估模型函数得到预测的结果
  376. output = evaluate_fn(lineToTensor(input_line))
  377. # 从预测的结果中取出top3个最大值及其索引
  378. topv, topi = output.topk(n_predictions, 1, True)
  379. # 初始化结果的列表
  380. predictions = []
  381. # 遍历3个最可能的结果
  382. for i in range(n_predictions):
  383. # 首先从topv中取出概率值
  384. value = topv[0][i].item()
  385. # 然后从topi中取出索引值
  386. category_index = topi[0][i].item()
  387. # 打印概率值及其对应的真实国家名称
  388. print('(%.2f) %s' % (value, all_categories[category_index]))
  389. # 将结果封装成列表格式, 添加到最终的结果列表中
  390. predictions.append([value, all_categories[category_index]])
  391. return predictions
  392. # for evaluate_fn in [evaluateRNN, evaluateLSTM, evaluateGRU]:
  393. # print('-'*20)
  394. # predict('Dovesky', evaluate_fn)
  395. # predict('Jackson', evaluate_fn)
  396. # predict('Satoshi', evaluate_fn)

  1. # 导入open方法
  2. from io import open
  3. # 用于字符规范化
  4. import unicodedata
  5. # 导入正则表达式的包
  6. import re
  7. # 导入随机处理数据的包
  8. import random
  9. # 导入torch相关的包
  10. import torch
  11. import torch.nn as nn
  12. import torch.nn.functional as F
  13. # 导入优化方法的工具包
  14. from torch import optim
  15. # 设备的选择, 可以选择在GPU上运行或者在CPU上运行
  16. device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
  17. # 定义起始标志
  18. SOS_token = 0
  19. # 定义结束标志
  20. EOS_token = 1
  21. class Lang():
  22. def __init__(self, name):
  23. # name: 参数代表传入某种语言的名字
  24. self.name = name
  25. # 初始化单词到索引的映射字典
  26. self.word2index = {}
  27. # 初始化索引到单词的映射字典, 其中0, 1对应的SOS, EOS已经在字典中了
  28. self.index2word = {0: "SOS", 1: "EOS"}
  29. # 初始化词汇对应的数字索引, 从2开始, 因为0, 1已经被开始字符和结束字符占用了
  30. self.n_words = 2
  31. def addSentence(self, sentence):
  32. # 添加句子的函数, 将整个句子中所有的单词依次添加到字典中
  33. # 因为英文, 法文都是空格进行分割的语言, 直接进行分词就可以
  34. for word in sentence.split(' '):
  35. self.addWord(word)
  36. def addWord(self, word):
  37. # 添加单词到类内字典中, 将单词转换为数字
  38. # 首先判断word是否已经在self.word2index字典的key
  39. if word not in self.word2index:
  40. # 添加的时候, 索引值取当前类中单词的总数量
  41. self.word2index[word] = self.n_words
  42. # 再添加翻转的字典
  43. self.index2word[self.n_words] = word
  44. # 第三步更新类内的单词总数量
  45. self.n_words += 1
  46. # name = "eng"
  47. # sentence = "hello I am Jay"
  48. # eng1 = Lang(name)
  49. # eng1.addSentence(sentence)
  50. # print("word2index:", eng1.word2index)
  51. # print("index2word:", eng1.index2word)
  52. # print("n_words:", eng1.n_words)
  53. # 将unicode字符串转换为ASCII字符串, 主要用于将法文的重音符号去除掉
  54. def unicodeToAscii(s):
  55. return ''.join(c for c in unicodedata.normalize('NFD', s)
  56. if unicodedata.category(c) != 'Mn')
  57. # 定义字符串规范化函数
  58. def normalizeString(s):
  59. # 第一步使字符转变为小写并去除掉两侧的空白符, 再调用上面的函数转换为ASCII字符串
  60. s = unicodeToAscii(s.lower().strip())
  61. # 在.!?前面加一个空格
  62. s = re.sub(r"([.!?])", r" \1", s)
  63. # 使用正则表达式将字符串中不是大小写字符和正常标点符号的全部替换成空格
  64. s = re.sub(r"[^a-zA-Z.!?]+", r" ", s)
  65. return s
  66. # s1 = "Are you kidding me?"
  67. # res = normalizeString(s1)
  68. # print(res)
  69. # 明确一下数据文件的存放地址
  70. data_path = '../data/eng-fra.txt'
  71. # 读取原始数据并实例化源语言+目标语言的类对象
  72. def readLangs(lang1, lang2):
  73. # lang1: 代表源语言的名字
  74. # lang2: 代表目标语言的名字
  75. # 整个函数返回对应的两个类对象, 以及语言对的列表
  76. lines = open(data_path, encoding='utf-8').read().strip().split('\n')
  77. # 对lines列表中的句子进行标准化处理, 并以\t进行再次划分, 形成子列表
  78. pairs = [[normalizeString(s) for s in l.split('\t')] for l in lines]
  79. # 直接初始化两个类对象
  80. input_lang = Lang(lang1)
  81. output_lang = Lang(lang2)
  82. return input_lang, output_lang, pairs
  83. lang1 = "eng"
  84. lang2 = "fra"
  85. # input_lang, output_lang, pairs = readLangs(lang1, lang2)
  86. # print("input_lang:", input_lang)
  87. # print("output_lang:", output_lang)
  88. # print("pairs[:5]:", pairs[:5])
  89. # 设置组成句子中单词或标点的最多个数
  90. MAX_LENGTH = 10
  91. # 选择带有指定前缀的英文源语言的语句数据作为训练数据
  92. eng_prefixes = (
  93. "i am ", "i m ",
  94. "he is", "he s ",
  95. "she is", "she s ",
  96. "you are", "you re ",
  97. "we are", "we re ",
  98. "they are", "they re "
  99. )
  100. # 过滤语言对的具体逻辑函数
  101. def filterPair(pair):
  102. # 当前传入的pair是一个语言对的形式
  103. # pair[0]代表英文源语句, 长度应小于MAX_LENGTH, 并且以指定前缀开始
  104. # pair[1]代表法文源语句, 长度应小于MAX_LENGTH
  105. return len(pair[0].split(' ')) < MAX_LENGTH and \
  106. pair[0].startswith(eng_prefixes) and \
  107. len(pair[1].split(' ')) < MAX_LENGTH
  108. # 过滤语言对的函数
  109. def filterPairs(pairs):
  110. # 函数直接遍历列表中的每个语言字符串并调用filterPair()函数即可
  111. return [pair for pair in pairs if filterPair(pair)]
  112. # fpairs = filterPairs(pairs)
  113. # print("fpairs[:5]:", fpairs[:5])
  114. # 整合数据预处理的函数
  115. def prepareData(lang1, lang2):
  116. # lang1: 代表源语言的名字, 英文
  117. # lang2: 代表目标语言的名字, 法文
  118. # 第一步通过调用readLangs()函数得到两个类对象, 并得到字符串类型的语言对的列表
  119. input_lang, output_lang, pairs = readLangs(lang1, lang2)
  120. # 第二步对字符串类型的列表进行过滤操作
  121. pairs = filterPairs(pairs)
  122. # 对过滤后的语言对列表进行遍历操作, 添加进类对象中
  123. for pair in pairs:
  124. input_lang.addSentence(pair[0])
  125. output_lang.addSentence(pair[1])
  126. # 返回数值映射后的类对象, 以及过滤后的语言对列表
  127. return input_lang, output_lang, pairs
  128. # input_lang, output_lang, pairs = prepareData('eng', 'fra')
  129. # print("input_lang words:", input_lang.n_words)
  130. # print("output_lang words:", output_lang.n_words)
  131. # print(random.choice(pairs))
  132. def tensorFromSentence(lang, sentence):
  133. # lang: 代表是Lang类的实例化对象
  134. # sentence: 代表传入的语句
  135. indexes = [lang.word2index[word] for word in sentence.split(' ')]
  136. # 注意要在最后添加一个语句的结束符号
  137. indexes.append(EOS_token)
  138. # 使用torch.tensor对列表进行封装, 并将其形状改变成 n*1
  139. return torch.tensor(indexes, dtype=torch.long, device=device).view(-1, 1)
  140. def tensorsFromPair(pair):
  141. # pair: 代表一个语言对(英文, 法文)
  142. # 依次调用具体的处理函数, 分别处理源语言和目标语言
  143. input_tensor = tensorFromSentence(input_lang, pair[0])
  144. output_tensor = tensorFromSentence(output_lang, pair[1])
  145. return (input_tensor, output_tensor)
  146. # pair_tensor = tensorsFromPair(pairs[0])
  147. # print(pair_tensor)
  148. # 构建编码器类
  149. class EncoderRNN(nn.Module):
  150. def __init__(self, input_size, hidden_size):
  151. # input_size: 代表编码器输入尺寸, 就是英文的词表大小
  152. # hidden_size: 代表GRU的隐藏层神经单元数, 同时也是词嵌入的维度
  153. super(EncoderRNN, self).__init__()
  154. # 将参数传入类中
  155. self.input_size = input_size
  156. self.hidden_size = hidden_size
  157. # 实例化Embedding层, 输入参数分别是词表单词总数, 和词嵌入的维度
  158. self.embedding = nn.Embedding(input_size, hidden_size)
  159. # 实例化GRU, 参数也是hidden_size
  160. self.gru = nn.GRU(hidden_size, hidden_size)
  161. def forward(self, input1, hidden):
  162. # input1: 代表源语言中的输入张量
  163. # hidden: 代表初始化的隐藏层张量
  164. # 注意: 经过EMbedding处理后, 张量是一个二维张量, 但是GRU要求输入是三维张量,
  165. # 所以要对结果进行扩展维度 view(), 同时让任意单词映射后的尺寸是[1, embedding]
  166. output = self.embedding(input1).view(1, 1, -1)
  167. # 将output和hidden传入GRU单元中, 得到返回结果
  168. output, hidden = self.gru(output, hidden)
  169. return output, hidden
  170. def initHidden(self):
  171. # 将隐藏层张量初始化为1*1*self.hidden_size大小的张量
  172. return torch.zeros(1, 1, self.hidden_size, device=device)
  173. hidden_size = 25
  174. input_size = 20
  175. # input1 = pair_tensor[0][0]
  176. # hidden = torch.zeros(1, 1, hidden_size)
  177. # encoder = EncoderRNN(input_size, hidden_size)
  178. # output, hidden = encoder(input1, hidden)
  179. # print(output)
  180. # print(output.shape)
  181. # 构建解码器类
  182. class DecoderRNN(nn.Module):
  183. def __init__(self, hidden_size, output_size):
  184. # hidden_size: 代表隐藏层的神经元个数, 同时也是解码器的输入尺寸
  185. # output_size: 代表整个解码器的输出尺寸, 指定的尺寸也就是目标语言的单词总数
  186. super(DecoderRNN, self).__init__()
  187. # 将参数传入类中
  188. self.hidden_size = hidden_size
  189. self.output_size = output_size
  190. # 实例化Embedding对象, 输入参数分别是目标语言的单词总数, 和词嵌入的维度
  191. self.embedding = nn.Embedding(output_size, hidden_size)
  192. # 实例化GRU对象
  193. self.gru = nn.GRU(hidden_size, hidden_size)
  194. # 实例化线性层的对象, 对GRU的输出做线性变换, 得到希望的输出尺寸output_size
  195. self.out = nn.Linear(hidden_size, output_size)
  196. # 最后进入Softmax的处理
  197. self.softmax = nn.LogSoftmax(dim=1)
  198. def forward(self, input1, hidden):
  199. # input1: 代表目标语言的输入张量
  200. # hidden: 代表初始化的GRU隐藏层张量
  201. # 经历了Embedding层处理后, 要将张量形状改变为三维张量
  202. output = self.embedding(input1).view(1, 1, -1)
  203. # 使用relu函数对输出进行处理, 使得EMbedding矩阵更稀疏, 防止过拟合
  204. output = F.relu(output)
  205. # 将张量传入GRU解码器中
  206. output, hidden = self.gru(output, hidden)
  207. # 经历GRU处理后的张量是三维张量, 但是全连接层需要二维张量, 利用output[0]来降维
  208. output = self.softmax(self.out(output[0]))
  209. return output, hidden
  210. def initHidden(self):
  211. # 初始化隐藏层张量, 形状为1*1*self.hidden_size
  212. return torch.zeros(1, 1, self.hidden_size, device=device)
  213. # hidden_size = 25
  214. # output_size = 10
  215. # input1 = pair_tensor[1][0]
  216. # hidden = torch.zeros(1, 1, hidden_size)
  217. # decoder = DecoderRNN(hidden_size, output_size)
  218. # output, hidden = decoder(input1, hidden)
  219. # print(output)
  220. # print(output.shape)
  221. # 构建基于GRU和Attention的解码器类
  222. class AttnDecoderRNN(nn.Module):
  223. def __init__(self, hidden_size, output_size, dropout_p=0.1, max_length=MAX_LENGTH):
  224. # hidden_size: 代表解码器的GRU输出尺寸, 就是隐藏层的神经元个数
  225. # output_size: 指定的网络输出尺寸, 代表目标语言的词汇总数(法文)
  226. # dropout_p: 使用Dropout层的置零比例
  227. # max_length: 代表句子的最大长度
  228. super(AttnDecoderRNN, self).__init__()
  229. # 将参数传入类中
  230. self.hidden_size = hidden_size
  231. self.output_size = output_size
  232. self.dropout_p = dropout_p
  233. self.max_length = max_length
  234. # 实例化一个Embedding对象, 参数是目标语言的词汇总数和词嵌入的维度
  235. self.embedding = nn.Embedding(output_size, hidden_size)
  236. # 实例化第一个注意力层, 注意输入是两个张量的合并
  237. self.attn = nn.Linear(self.hidden_size * 2, self.max_length)
  238. # 实例化第二个注意力层, 注意输入也是两个张量的合并, 同时输出要进入GRU中
  239. self.attn_combine = nn.Linear(self.hidden_size * 2, self.hidden_size)
  240. # 实例化一个nn.Dropout层
  241. self.dropout = nn.Dropout(self.dropout_p)
  242. # 实例化GRU单元
  243. self.gru = nn.GRU(self.hidden_size, self.hidden_size)
  244. # 实例化GRU之后的线性层, 作为整个解码器的输出
  245. self.out = nn.Linear(self.hidden_size, self.output_size)
  246. def forward(self, input1, hidden, encoder_output):
  247. # input1: 源数据的输入张量
  248. # hidden: 初始化的隐藏层张量
  249. # encoder_output: 代表编码器的输出张量
  250. # 对输入input1进行词嵌入处理, 并扩展维度
  251. embedded = self.embedding(input1).view(1, 1, -1)
  252. # 紧接着将其输入dropout层, 防止过拟合
  253. embedded = self.dropout(embedded)
  254. # 在进行第一个注意力层处理前, 要将Q, K进行纵轴拼接
  255. attn_weights = F.softmax(self.attn(torch.cat((embedded[0], hidden[0]), 1)), dim=1)
  256. # 进行bmm操作, 注意要将二维张量扩展成三维张量
  257. attn_applied = torch.bmm(attn_weights.unsqueeze(0), encoder_output.unsqueeze(0))
  258. # 再次进行拼接, 顺便要进行一次降维
  259. output = torch.cat((embedded[0], attn_applied[0]), 1)
  260. # 将output输入第二个注意力层
  261. output = self.attn_combine(output).unsqueeze(0)
  262. # 使用relu进行激活层处理
  263. output = F.relu(output)
  264. # 将激活后的张量, 连同隐藏层张量, 一起传入GRU中
  265. output, hidden = self.gru(output, hidden)
  266. # 最后将结果先降维, 然后线性层梳理成指定的输出维度, 最后经过softmax处理
  267. output = F.log_softmax(self.out(output[0]), dim=1)
  268. # 返回解码器的最终输出结果, 最后的隐藏层张量, 注意力权重张量
  269. return output, hidden, attn_weights
  270. def initHidden(self):
  271. # 初始化一个全零的隐藏层张量, 形状为 1*1*self.hidden_size
  272. return torch.zeros(1, 1, self.hidden_size, device=device)
  273. # hidden_size = 25
  274. # output_size = 10
  275. # input1 = pair_tensor[1][0]
  276. # hidden = torch.zeros(1, 1, hidden_size)
  277. # encoder_output = torch.randn(10, 25)
  278. # decoder_attn = AttnDecoderRNN(hidden_size, output_size)
  279. # output, hidden, attn_weights = decoder_attn(input1, hidden, encoder_output)
  280. # print(output)
  281. # print(output.shape)
  282. # print(hidden.shape)
  283. # print(attn_weights)
  284. # print(attn_weights.shape)
  285. # 设定一下teacher_forcing的比率, 在多大的概率下使用这个策略进行训练
  286. teacher_forcing_ratio = 0.5
  287. def train(input_tensor, target_tensor, encoder, decoder,
  288. encoder_optimizer, decoder_optimizer, criterion, max_length=MAX_LENGTH):
  289. # input_tensor: 代表源语言的输入张量
  290. # target_tensor: 代表目标语言的输入张量
  291. # encoder: 代表编码器的实例化对象
  292. # decoder: 代表解码器的实例化对象
  293. # encoder_optimizer: 代表编码器优化器
  294. # decoder_optimizer: 代表解码器优化器
  295. # criterion: 损失函数
  296. # max_length: 代表句子的最大长度
  297. # 初始化编码器的隐藏层张量
  298. encoder_hidden = encoder.initHidden()
  299. # 训练前将编码器和解码器的优化器梯度归零
  300. encoder_optimizer.zero_grad()
  301. decoder_optimizer.zero_grad()
  302. # 根据源文本和目标文本张量获得对应的长度
  303. input_length = input_tensor.size(0)
  304. target_length = target_tensor.size(0)
  305. # 初始化编码器的输出矩阵张量, 形状是max_length * encoder.hidden_size
  306. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  307. # 设置初始损失值
  308. loss = 0
  309. # 遍历输入张量
  310. for ei in range(input_length):
  311. encoder_output, encoder_hidden = encoder(input_tensor[ei], encoder_hidden)
  312. # 每一个轮次的输出encoder_output是三维张量, 使用[0,0]进行降维到一维列表, 赋值给输出张量
  313. encoder_outputs[ei] = encoder_output[0, 0]
  314. # 初始化解码器的第一个输入字符
  315. decoder_input = torch.tensor([[SOS_token]], device=device)
  316. # 初始化解码器的隐藏层张量, 赋值给最后一次编码器的隐藏层张量
  317. decoder_hidden = encoder_hidden
  318. # 判断是否使用teacher_forcing
  319. use_teacher_forcing = True if random.random() < teacher_forcing_ratio else False
  320. # 如果使用teacher_forcing
  321. if use_teacher_forcing:
  322. """
  323. 如果是teacher_forcing,那么将会使用真实标签语句中的值作为解码器时间步的输入。
  324. 第一个时间步输入的是起始符SOS_token,然后后面每个时间步的输入都是真实标签语句中的单词索引值。
  325. 真实标签语句中的最后一个单词索引值为1(结束标志EOS_token),那么当前的循环是没有把1(结束标志EOS_token)再输入到解码器中训练的,
  326. 因为当前range(目标语句长度)中的最后一次循环中target_tensor[di]仅仅是把1(结束标志EOS_token)取出来了,
  327. 然后循环就结束了,并没有机会再次输入到解码器中继续训练。
  328. """
  329. # 遍历目标张量, 进行解码
  330. for di in range(target_length):
  331. decoder_output, decoder_hidden, decoder_attention = decoder(
  332. decoder_input, decoder_hidden, encoder_outputs)
  333. # 使用损失函数计算损失值, 并进行累加
  334. loss += criterion(decoder_output, target_tensor[di])
  335. # 因为使用了teacher_forcing, 所以将下一步的解码器输入强制设定为“正确的答案”
  336. decoder_input = target_tensor[di]
  337. # 如果不适用teacher_forcing
  338. else:
  339. # 遍历目标张量, 进行解码
  340. for di in range(target_length):
  341. decoder_output, decoder_hidden, decoder_attention = decoder(
  342. decoder_input, decoder_hidden, encoder_outputs)
  343. # 预测值变成输出张量中概率最大的那一个
  344. topv, topi = decoder_output.topk(1)
  345. # 使用损失函数计算损失值, 并进行累加
  346. loss += criterion(decoder_output, target_tensor[di])
  347. # 如果某一步的解码结果是句子终止符号, 则解码直接结束, 跳出循环
  348. if topi.squeeze().item() == EOS_token:
  349. break
  350. # 下一步解码器的输入要设定为当前步最大概率值的那一个
  351. decoder_input = topi.squeeze().detach()
  352. # 应用反向传播进行梯度计算
  353. loss.backward()
  354. # 利用编码器和解码器的优化器进行参数的更新
  355. encoder_optimizer.step()
  356. decoder_optimizer.step()
  357. # 返回平均损失
  358. return loss.item() / target_length
  359. # 构建时间计算的辅助函数
  360. def timeSince(since):
  361. # since: 代表模型训练的开始时间
  362. # 首先获取当前时间
  363. now = time.time()
  364. # 计算得到时间差
  365. s = now - since
  366. # 将s转换为分钟, 秒的形式
  367. m = math.floor(s / 60)
  368. # 计算余数的秒
  369. s -= m * 60
  370. # 按照指定的格式返回时间差
  371. return '%dm %ds' % (m, s)
  372. # since = time.time() - 620
  373. # period = timeSince(since)
  374. # print(period)
  375. import matplotlib.pyplot as plt
  376. def trainIters(encoder, decoder, n_iters, print_every=1000, plot_every=100, learning_rate=0.01):
  377. # encoder: 编码器的实例化对象
  378. # decoder: 解码器的实例化对象
  379. # n_iters: 训练的总迭代步数
  380. # print_every: 每隔多少轮次进行一次训练日志的打印
  381. # plot_every: 每隔多少轮次进行一次损失值的添加, 为了后续绘制损失曲线
  382. # learning_rate: 学习率
  383. # 获取训练开始的时间
  384. start = time.time()
  385. # 初始化存放平均损失值的列表
  386. plot_losses = []
  387. # 每隔打印间隔的总损失值
  388. print_loss_total = 0
  389. # 每个绘制曲线损失值的列表
  390. plot_loss_total = 0
  391. # 定义编码器和解码器的优化器
  392. encoder_optimizer = optim.SGD(encoder.parameters(), lr=learning_rate)
  393. decoder_optimizer = optim.SGD(decoder.parameters(), lr=learning_rate)
  394. # 定义损失函数
  395. criterion = nn.NLLLoss()
  396. # 按照设定的总迭代次数进行迭代训练
  397. for iter in range(1, n_iters + 1):
  398. # 每次从语言对的列表中随机抽取一条样本作为本轮迭代的训练数据
  399. training_pair = tensorsFromPair(random.choice(pairs))
  400. # 依次将选取出来的语句对作为输入张量, 和输出张量
  401. input_tensor = training_pair[0]
  402. target_tensor = training_pair[1]
  403. # 调用train()函数获得本轮迭代的损失值
  404. loss = train(input_tensor, target_tensor, encoder, decoder,
  405. encoder_optimizer, decoder_optimizer, criterion)
  406. # 将本轮迭代的损失值进行累加
  407. print_loss_total += loss
  408. plot_loss_total += loss
  409. # 如果到达了打印的轮次
  410. if iter % print_every == 0:
  411. # 首先获取本次打印的平均损失值
  412. print_loss_avg = print_loss_total / print_every
  413. # 为了下一个打印间隔的累加, 这里将累加器清零
  414. print_loss_total = 0
  415. # 打印若干信息
  416. print('%s (%d %d%%) %.4f' % (timeSince(start),
  417. iter, iter / n_iters * 100, print_loss_avg))
  418. # 如果到达了绘制损失曲线的轮次
  419. if iter % plot_every == 0:
  420. # 首先获取本次损失添加的平均损失值
  421. plot_loss_avg = plot_loss_total / plot_every
  422. # 将平均损失值添加进最后的列表中
  423. plot_losses.append(plot_loss_avg)
  424. # 为了下一个添加损失值的累加, 这里将累加器清零
  425. plot_loss_total = 0
  426. # 绘制损失曲线
  427. plt.figure()
  428. plt.plot(plot_losses)
  429. plt.savefig("./s2s_loss.png")
  430. # hidden_size = 256
  431. # encoder1 = EncoderRNN(input_lang.n_words, hidden_size).to(device)
  432. # attn_decoder1 = AttnDecoderRNN(hidden_size, output_lang.n_words, dropout_p=0.1).to(device)
  433. # n_iters = 5000
  434. # print_every = 500
  435. # if __name__ == '__main__':
  436. # trainIters(encoder1, attn_decoder1, n_iters, print_every=print_every)
  437. def evaluate(encoder, decoder, sentence, max_length=MAX_LENGTH):
  438. # encoder: 代表编码器对象
  439. # decoder: 代表解码器对象
  440. # sentence: 待评估的源语句
  441. # max_length: 句子的最大长度
  442. # 注意: 整个评估过程梯度不进行改变
  443. with torch.no_grad():
  444. # 对输入语句进行张量表示
  445. input_tensor = tensorFromSentence(input_lang, sentence)
  446. # 获得输入的句子长度
  447. input_length = input_tensor.size(0)
  448. # 初始化编码器的隐藏层张量
  449. encoder_hidden = encoder.initHidden()
  450. # 初始化编码器的输出张量, 矩阵的形状max_length * hidden_size
  451. encoder_outputs = torch.zeros(max_length, encoder.hidden_size, device=device)
  452. # 遍历输入张量
  453. for ei in range(input_length):
  454. # 循环进入编码器的处理
  455. encoder_output, encoder_hidden = encoder(input_tensor[ei], encoder_hidden)
  456. # 将三维张量的输出先进行降维到一维, 然后赋值给encoder_outputs
  457. encoder_outputs[ei] = encoder_output[0, 0]
  458. # 初始化解码器的第一个输入, 就是起始字符
  459. decoder_input = torch.tensor([[SOS_token]], device=device)
  460. # 初始化解码器的隐藏层输入
  461. decoder_hidden = encoder_hidden
  462. # 初始化预测词汇的列表
  463. decoded_words = []
  464. # 初始化一个attention张量
  465. decoder_attentions = torch.zeros(max_length, max_length)
  466. # 遍历解码
  467. for di in range(max_length):
  468. # 将张量送入解码器处理
  469. decoder_output, decoder_hidden, decoder_attention = decoder(
  470. decoder_input, decoder_hidden, encoder_outputs)
  471. # 首先将注意力张量保存
  472. decoder_attentions[di] = decoder_attention.data
  473. # 按照解码器输出的最高概率作为当前时间步的预测值
  474. topv, topi = decoder_output.data.topk(1)
  475. # 如果解析出的是结束字符
  476. if topi.item() == EOS_token:
  477. # 将结束字符添加到结果列表中, 并退出解码循环
  478. decoded_words.append('<EOS>')
  479. break
  480. else:
  481. # 要根据索引去将真实的字符添加进结果列表中
  482. decoded_words.append(output_lang.index2word[topi.item()])
  483. # 最后一步将预测的标签赋值给下一步解码器的输入
  484. decoder_input = topi.squeeze().detach()
  485. # 返回最终解码的结果列表, 以及注意力张量
  486. return decoded_words, decoder_attentions[:di + 1]
  487. def evaluateRandomly(encoder, decoder, n=6):
  488. for i in range(n):
  489. pair = random.choice(pairs)
  490. print('>', pair[0])
  491. print('=', pair[1])
  492. output_words, attentions = evaluate(encoder, decoder, pair[0])
  493. output_sentence = ' '.join(output_words)
  494. print('<', output_sentence)
  495. print(' ')
  496. # if __name__ == '__main__':
  497. # evaluateRandomly(encoder1, attn_decoder1)
  498. sentence = "we re both teachers ."
  499. output_words, attention = evaluate(encoder1, attn_decoder1, sentence)
  500. print(output_words)
  501. plt.figure()
  502. plt.matshow(attention.numpy())
  503. plt.savefig("./s2s_attn.png")

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/300687
推荐阅读
相关标签
  

闽ICP备14008679号