当前位置:   article > 正文

Seq2Seq+Attention生成式文本摘要_生成式摘要算法

生成式摘要算法
任务描述: 自动摘要是指给出一段文本,我们从中提取出要点,然后再形成一个短的概括性的文本。自动的文本摘要是非常具有挑战性的,因为当我们作为人类总结一篇文章时,我们通常会完整地阅读它以发展我们的理解,然后写一个摘要突出其要点。由于计算机缺乏人类知识和语言能力,
它使自动文本摘要成为一项非常困难和艰巨的任务。自动摘要通常分为抽取式摘要和生成式摘要,区别在于抽取摘要选择原文中若干句子作为只要,而生成式摘要利用文本生成技术根据原文生成摘要,这个摘要会出现原文中没有出现过的句子和词。生成式方法则应用先进的自然语言处理的算法,通过转述、同义替换、句子缩写等技术,生成更凝练简洁的摘要。比起抽取式,生成式更接近人进行摘要的过程。历史上,抽取式的效果通常优于生成式。生成式文本摘要以一种更接近于人的方式生成摘要,这就要求生成式模型有更强的表征、理解、生成文本的能力。传统方法很难实现这些能力,而近几年来快速发展的深度神经网络因其强大的表征(representation)能力,提供了更多的可能性,在图像分类、机器翻译等领域不断推进机器智能的极限。借助深度神经网络,生成式自动文本摘要也有了令人瞩目的发展,不少生成式神经网络模型(neural-network-based abstractive summarization model)在DUC-2004测试集上已经超越了最好的抽取式模型。这部分文章主要介绍生成式神经网络模型的基本结构及最新成果。伴随深度神经网络的兴起和研究,基于神经网络的生成式文本摘要得到快速发展,并取得了不错的成绩。
本教程介绍一种seq2seq+attention 生成式摘要算法。
### 数据集:使用gigaword数据集,但是由于数据集太过庞大,
只抽取了部分数据,其中训练集20000个数据,验证集1000个数据,测试集1000个数据。本文所阐述的模型主要是借鉴下边这篇机器翻译作为基础来学习生成式文本摘要,两个任务很类似。

可参考学习的论文:​​​​​​谷歌发表的关于机器翻译的论文

1. encoder-decoder

  encoder-decoder框架的工作机制是:先使用encoder,将输入编码到语义空间,得到一个固定维数的向量,这个向量就表示输入的语义;然后再使用decoder,将这个语义向量解码,获得所需要的输出,如果输出是文本的话,那么decoder通常就是语言模型

  这种机制的优缺点都很明显,优点:非常灵活,并不限制encoder、decoder使用何种神经网络,也不限制输入和输出的模态(例如image caption任务,输入是图像,输出是文本);而且这是一个端到端(end-to-end)的过程,将语义理解和语言生成合在了一起,而不是分开处理。缺点的话就是由于无论输入如何变化,encoder给出的都是一个固定维数的向量,存在信息损失;在生成文本时,生成每个词所用到的语义向量都是一样的,这显然有些过于简单。

 2. attention mechanism 注意力机制

  为了解决上面提到的问题,一种可行的方案是引入attention mechanism。所谓注意力机制,就是说在生成每个词的时候,对不同的输入词给予不同的关注权重。谷歌博客里介绍神经机器翻译系统时所给出的动图形象地展示了attention:

3.Seq2Seq结构  以机器翻译为例,假设我们要将 How are you 翻译为 你好吗,模型要做的事情 如下图:

3.1图解:

            (1)上图中,LSTM Encoder 是一个 LSTM 神经元,Decoder 是另一个 LSTM 神经元,Encoder 自身运行了 3 次,Decoder 运行了 4 次。

            (2)可以看出,Encoder 的输出会被抛弃,我们只需要保留隐藏状态(即图中 EN 状态)作为下一次 Encoder 的状态输入。

            (3)Encoder 的最后一轮输出状态会与 Decoder 的输入组合在一起,共同作为 Decoder 的输入。

            (4)而 Decoder 的输出会被保留,当做下一次的输入。注意,这是说的是预测时的情况,在训练时一般会用真正正确的输出序列内容,而预测时会用上一轮 Decoder 的输出。

            (5)给 Decoder 的第一个输入是 <S>,这是我们指定的一个特殊字符,它用来告诉 Decoder,你该开始输出信息了。

            (6)而最末尾的 <E>,也是我们指定的特殊字符,它告诉我们,句子已经要结束了,不用再运行了。

    3.2、伪数学

        从更高层的角度来看算法,整个模型也无非是一种从输入到输出的函数映射。

        我们已知的输入数据是 How are you,我们希望的输出是 你好吗,模型学习了下面这些函数映射,组成了一个单射函数:

            {How, are, you, <S>}  {你}

            {How, are, you, <S>, 你}  {好}

            {How, are, you, <S>, 你, 好}  {吗}

            {How, are, you, <S>, 你, 好, 吗}  {<E>}
原文链接:https://blog.csdn.net/weixin_38477351/article/details/108814274

以上是理论部分讲解,可以根据相关的模型和动态图了解到attetnion机制是如何在Seq2Seq模型上进行计算注意力的。

4、关于文本摘要的代码,主要包括五部分,数据的准备、模型的结构以及定义、模型的训练、模型的预测、以及模型评估

  1. ##模型的说明,数据的准备以及环境的准备
  2. ### 任务描述: 自动摘要是指给出一段文本,我们从中提取出要点,然后再形成一个短的概括性的文本。自动的文本摘要是非常具有挑战性的,因为当我们作为人类总结一篇文章时,我们通常会完整地阅读它以发展我们的理解,然后写一个摘要突出其要点。由于计算机缺乏人类知识和语言能力,
  3. 它使自动文本摘要成为一项非常困难和艰巨的任务。自动摘要通常分为抽取式摘要和生成式摘要,区别在于抽取摘要选择原文中若干句子作为只要,而生成式摘要利用文本生成技术根据原文生成摘要,这个摘要会出现原文中没有出现过的句子和词。
  4. 本教程介绍一种seq2seq+attention 生成式摘要算法。
  5. ### 数据集:使用gigaword数据集,但是由于数据集太过庞大,
  6. 只抽取了部分数据,其中训练集20000个数据,验证集1000个数据,测试集1000个数据。
  7. ### 运行环境
  8. Python==3.6
  9. numpy==1.18.0
  10. pandas==0.24.2
  11. torch==1.0.0
  12. torchtext==0.4.0
  13. spacy==2.1.8
  14. rouge==1.0.0
  15. 尤其要注意mask矩阵时使用的真正的长度-有相应的代码
  16. 本次运行的是短文本生成摘要
  17. 基于seq2seq+attention
  18. 模型的基本原理和机器翻译相同,是生成式的
  1. /* 模型主要结构部分 */
  2. # 统一导入工具包
  3. # 使用pip命令安装指定版本工具包
  4. # !pip install numpy==1.18.0 pandas==0.24.2 torch==1.0.0 torchtext==0.4.0 spacy==2.1.8 rouge==1.0.0
  5. """
  6. import torch
  7. import torch.nn as nn
  8. import torch.optim as optim
  9. import torch.nn.functional as F
  10. from torchtext.datasets import Multi30k
  11. from torchtext.data import Field, BucketIterator, TabularDataset, Iterator
  12. import pandas as pd
  13. import spacy
  14. import numpy as np
  15. import random
  16. import math
  17. import time
  18. # 全局初始化配置参数。固定随机种子,使得每次运行的结果相同
  19. #SEED = 22
  20. random.seed(22)
  21. np.random.seed(22)
  22. torch.manual_seed(22)
  23. if torch.cuda.is_available():
  24. torch.cuda.manual_seed_all(22)
  25. torch.backends.cudnn.deterministic = True
  26. #1.数据准备¶使用gigaword数据集本教程的实验数据,并对数据进行预处理,主要包含以下步骤:
  27. #(1) 数据整理
  28. #(2) 数据说明
  29. #(3) 数据预处理:构建分词函数、构件预处理格式、载入数据、构建数据迭代器、构建词表。
  30. #1.1数据整理
  31. #使用gigaword数据集,但是由于数据集太过庞大,只抽取了部分数据,其中训练集20000个数据,验证集1000个数据,测试集1000个数据。其中训练集用以训练模型,
  32. #验证集用以调整训练参数,测试集用以测试模型。
  33. #完整的数据集详见 https://github.com/harvardnlp/sent-summary ,
  34. #需要处理成data_train_path中相同的csv格式。
  35. #数据处理、分词
  36. data_train_path = 'datasets/train.csv'
  37. data_val_path = 'datasets/val.csv'
  38. data_test_path = 'datasets/test.csv'
  39. #1.2数据说明
  40. # 用pandas包读取csv格式的数据,展示数据格式,其中‘document’为原文,‘summary’为原文的摘要
  41. data_train = pd.read_csv(data_train_path,encoding='utf-8')
  42. print(data_train.head())
  43. #1.3数据预处理
  44. #为了方便模型读入数据,需要对模型进行预处理,包括:
  45. #(1)构建分词函数
  46. #(2)构建预处理格式
  47. #(3)载入数据
  48. #(4)构建数据迭代器
  49. #(5)构建词表
  50. #1.3.1 构建分词函数¶分词是自然语言处理的基础,需要识别文本中有哪些词组,
  51. # 方便后续的处理。由于英文以空格的形式隔开,每个单词都是可以独立的词组,因此可以直接用空格符分词,但是为了识别文本中的所有短语词组以得到更准确的摘要结果,
  52. # 这里使用了spacy包里的tokenizer工具对文本中的短语进行分词。
  53. #spacy在使用前下载安装语言包,在终端命令行中输入:
  54. #python -m spacy download en
  55. # 载入spacy的英文处理包
  56. # import en_core_web_md
  57. spacy_en = spacy.load('en_core_web_md')
  58. # 构建分词函数,返回文本里包含的所有词组的列表
  59. def tokenize(text):
  60. return [tok.text for tok in spacy_en.tokenizer(text)]
  61. #1.3.2 构建数据预处理格式
  62. 在自然语言处理的预处理中有很多优秀的工具包,可以节省开发人员的开发成本,在这里我们使用torchtext,torchtext是pytorch专门用来处理文本的工具包,使用torchtext的Field函数可以构建预处理格式,这里分别对document和summary进行预处理。Field的部分参数如下:
  63. sequential:代表是否需要将数据序列化,大多数自然语言处理任务都是序列计算
  64. tokenize:需要传入分词函数,传入之前定义的tokenize函数
  65. lower:代表是否转换成小写,为了统一处理,把所有的字符转换成小写
  66. include_lengths:代表是否返回序列的长度,在gpu计算中,通常是对矩阵的运算,因此每个batch中,矩阵的长度为该batch中所有数据里最长的长度,其他长度不够的数据通常用pad字符补齐,这就会导致矩阵中有很多pad字符。为了后续的计算中把这些pad字符规避掉,我们需要返回每个数据的真实长度,这里的长度是指分词后每个文本中词组的数量
  67. init_token:传入起始符号,自然语言处理的任务中通常需要在文本的开头加入起始符号,作为句子的开始标记
  68. eos_token:传入结束符号,自然语言处理的任务中通常需要在文本的加入结束符号,作为句子的结束标记
  69. pad_token:传入pad符号,用来补全长度不够的文本,默认为<pad>
  70. unk_token:传入unk符号,默认为<unk>。自然语言处理任务中,往往有一些词组不在我们构建的词表中,这种现场叫做00V(Out Of Vocabulary),用一个unk字符来表示这些字符。
  71. ...
  72. 还有很多默认参数,这里不再一一解释
  73. DOCUMENT = Field(sequential=True, tokenize=tokenize, lower=True, include_lengths=True,
  74. init_token='<sos>', eos_token='<eos>')
  75. SUMMARY = Field(sequential=True, tokenize=tokenize, lower=True,
  76. init_token='<sos>', eos_token='<eos>')
  77. #1.3.3 载入数据
  78. #torchtext 的TabularDataset支持直接从csv中载入数据,fileds为csv的每一列指定预处理方式
  79. #这里是原文和摘要两种预处理方式。skip_header代表过滤掉csv的第一行。
  80. fields = [("document", DOCUMENT), ("summary", SUMMARY)]
  81. train = TabularDataset(path=data_train_path, format="csv", fields=fields, skip_header=True)
  82. val = TabularDataset(path=data_val_path, format="csv", fields=fields, skip_header=True)
  83. test = TabularDataset(path=data_val_path, format="csv", fields=fields, skip_header=True)
  84. #1.3.4 构建数据迭代器¶深度学习中,训练、验证和测试通常都是批次的形式,
  85. # 需要构建迭代器,分批次进行计算,这里可以使用torchtext中的BucketIterator或者Iterator自动构建迭代器。BucketIterator和Iterator的区别在于,
  86. # BucketIterator会自动将长度类似的文本归在一个batch,这样可以减少补全字符pad的数量,易于计算。
  87. #一些参数如下:
  88. #train:传入之前用TabularDataset载入的数据
  89. #batch_size:传入每个批次包含的数据数量
  90. #device:代表传入数据的设备,可以选择gpu或者cpu
  91. #sort_within_batch:代表是否对一个批次内的数据排序
  92. #sort_key:排序方式,由于要使用到pack_padded_sequence用来规避pad符号,而pack_padded_sequence需要数据以降序的形式排列,所以这里用document的长度进行降序。
  93. #device = torch.device('cpu')
  94. device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
  95. BATCH_SIZE = 5
  96. train_iter = BucketIterator(train, batch_size=BATCH_SIZE, device=device, sort_key=lambda x: len(x.document), sort_within_batch=True)
  97. val_iter = BucketIterator(val, batch_size=BATCH_SIZE, device=device, sort_key=lambda x: len(x.document), sort_within_batch=True)
  98. test_iter = BucketIterator(test, batch_size=BATCH_SIZE, device=device, sort_key=lambda x: len(x.document), sort_within_batch=True)
  99. #1.3.5 构建词表¶自然语言处理任务中往往将字符转换成数字,需要构建词表,用以用数字表示每个词组,并用来训练embedding。
  100. # 在训练集上构建词表,频次低于min_freq的词组会被过滤。构建完词表后会自动将迭代器数据中的字符转换成单词在词表中的序号。
  101. # 在这里,我们对document和summary分别单独构建了词表,也可以只构建一个词表,使document和summary共享词表。
  102. DOCUMENT.build_vocab(train, min_freq = 2)
  103. SUMMARY.build_vocab(train, min_freq = 2)
  104. print("document词表中前100个词:")
  105. print(DOCUMENT.vocab.itos[:100])
  106. #2.模型¶利用pytorch构建模型,并对模型进行训练,主要包括:
  107. #(1)模型概述
  108. #(2)模型结构定义
  109. #(3)模型实例化
  110. #(4)查看模型
  111. #2.1 模型概述
  112. 2.2 模型结构定义
  113. Encoder函数构建一个encoder,内部RNN使用了torch内置的GRU,参数为:
  114. input_dim:输入词表的大小
  115. emb_dim:embedding的维度
  116. enc_hid_dim:隐藏层的大小
  117. dropout:dropout的概率
  118. forward参数:
  119. doc:原文数据,是已经由词通过词表转换成序号的数据
  120. doc_len:每个数据的真实长度,在计算RNN时,可以只计算相应长度的状态,不计算pad符号
  121. forword输出Encoder整体的输出,以及Encoder每个状态的输出。每个状态的输出用来计算后续的attention。
  122. 值得注意的是,为了规避掉后续计算attention时受到序列中存在pad符号的影响,这里应用了nn.utils的pad_paddad_sequence方法,可以去掉doc_len以后的pad符号,这里pad_packed_sequence的输入为单词序列的embedding和序列的真实长度,这样在计算序列时,就不会计算doc_len后的pad符号了。在计算完RNN后,为了形成一个矩阵方便GPU计算,会把每个doc_len < max_len 的序列填充起来,这里使用了pad_packed_sequence方法,输入为RNN计算后的序列packed_outputs,在后续的attention计算时,会把填充的信息规避掉。
  123. 具体实现时,矩阵维度的变换比较繁琐,为了矩阵的运算经常需要增减维度或者交换维度的顺序,代码中已给出标注,建议自己调试一遍,感受维度变换过程。
  124. # encoder的输入为原文,输出为hidden_state,size需要设置
  125. class Encoder(nn.Module):
  126. def __init__(self, input_dim, emb_dim, enc_hid_dim, dec_hid_dim, dropout):
  127. super().__init__()
  128. # 定义embedding层,直接使用torch.nn.Embedding函数
  129. #input_dim输入词表的大小,emb_dim embedding的维度
  130. self.embedding = nn.Embedding(input_dim, emb_dim)
  131. # 定义rnn层,这里使用torch.nn.GRU,enc_hid_dim:隐藏层的大小
  132. self.rnn = nn.GRU(emb_dim, enc_hid_dim, bidirectional=True)
  133. # 定义一个全连接层,用来将encoder的输出转换成decoder输入的大小
  134. self.fc = nn.Linear(enc_hid_dim * 2, dec_hid_dim)
  135. # 定义dropout层,防止过拟合
  136. self.dropout = nn.Dropout(dropout)
  137. def forward(self, doc, doc_len):
  138. # doc = [doc len, batch size]原文数据,是已经由词通过词表转换成序号的数据
  139. # doc_len = [batch size],每个数据的真实长度,在计算RNN时,只计算真实长度,不计算pad符号
  140. embedded = self.dropout(self.embedding(doc))
  141. # embedded = [doc len, batch size, emb dim]
  142. packed_embedded = nn.utils.rnn.pack_padded_sequence(embedded, doc_len)
  143. packed_outputs, hidden = self.rnn(packed_embedded)
  144. # packed_outputs 包含了每个RNN中每个状态的输出,如图中的h1,h2,h3...hn
  145. # hidden只有最后的输出hn
  146. outputs, _ = nn.utils.rnn.pad_packed_sequence(packed_outputs)
  147. # outputs已经做了填充,但是后续计算attention会规避掉填充的信息
  148. '''n layers代表gru的层数,这里只使用的单层,因此n layer为1'''
  149. # outputs = [doc len, batch size, hid dim * num directions]
  150. # hidden = [n layers * num directions, batch size, hid dim]
  151. # hidden 包含了每一层的最后一个状态的输出,是前后向交替排列的 [第一层前向RNN最后一个状态输出, 第一层后向RNN最后一个状态输出
  152. # 第二层前向RNN最后一个状态输出, 第一层后向RNN最后一个状态输出, ...]
  153. # outputs 仅包含了每个状态最后一层的的输出,且是前后向拼接的
  154. # hidden [-2, :, : ] 前向RNN的最后一个状态输出
  155. # hidden [-1, :, : ] 后向RNN的最后一个状态输出
  156. # 用一个全连接层将encoder的输出表示转换成decoder输入的大小
  157. # tanh为非线性激活函数
  158. hidden = torch.tanh(self.fc(torch.cat((hidden[-2, :, :], hidden[-1, :, :]), dim=1)))
  159. # outputs = [doc len, batch size, enc hid dim * 2]
  160. # hidden = [batch size, dec hid dim]
  161. return outputs, hidden
  162. 构建Attention类,参数:
  163. Attention机制可以建立Decoder的状态和每个ENcoder状态的关系
  164. enc_hid_dim:encoder每个位置输出的维度
  165. dec_hid_dim:decoder每个位置输出的维度
  166. forward的参数:
  167. hidden:decoder里rnn前一个状态的输出
  168. encoder_outs:encoder里rnn的输出
  169. mask:mask矩阵,里面存储的是0-1矩阵,0代表被规避的pad符号的位置
  170. forword的输出为attention中的每个权重,context vector的计算在下面的Decoder类中。
  171. 需要注意的是,masked_fill可以用一个值替换矩阵中相应为的值,这里的输入为mask==0和-10e,mask==0代表mask矩阵里值为0的所有位置,
  172. 即pad的位置,用-10e来替换这些位置的值,可以在计算softmax前把相应位置的值降得很低,使得softmax计算后,pad符号的相应权重变得几乎为0
  173. 这里计算 $s_2$ 和 Encoder中每个状态的关系,需要用到 $s_1$ 的信息,先计算Decoder中 $s_{i-1}$ 和 Encodr状态 $h_{j}$ 的相似度:
  174. $e_{ij} = a(s_{i-1}, hj)$
  175. 将 $[s_{i-1};h_{j}]$ 传入至一个全连接层计算相似度。
  176. 然后将$s_{i-1}$ 和 Encoder中每个状态的相似度做一个softmax变化,得到每个Encoder中每个状态所占的权重,作为attention:
  177. $\alpha_{ij} = \frac{exp(e_{ij})}{\sum^{T}_{k = 1}(exp(e_{ik}))}$
  178. attention中的每个权重会用来计算context vector,即上下文的向量:
  179. $c_i = \sum_{k = 1}^{T} \alpha_{ij} h_j$
  180. 这个context vector会在Decoder中作为一部分输入。
  181. class Attention(nn.Module):
  182. def __init__(self, enc_hid_dim, dec_hid_dim):
  183. super().__init__()
  184. self.attn = nn.Linear((enc_hid_dim * 2) + dec_hid_dim, dec_hid_dim)
  185. self.v = nn.Linear(dec_hid_dim, 1, bias=False)
  186. def forward(self, hidden, encoder_outputs, mask):
  187. # hidden = [batch size, dec hid dim]//decoder里rnn前一个状态的输出
  188. # encoder_outputs = [doc len, batch size, enc hid dim * 2]
  189. batch_size = encoder_outputs.shape[1]
  190. doc_len = encoder_outputs.shape[0]
  191. # 对decoder的状态重复doc_len次,用来计算和每个encoder状态的相似度
  192. hidden = hidden.unsqueeze(1).repeat(1, doc_len, 1)
  193. encoder_outputs = encoder_outputs.permute(1, 0, 2)
  194. # hidden = [batch size, doc len, dec hid dim]
  195. # encoder_outputs = [batch size, doc len, enc hid dim * 2]
  196. # 使用全连接层计算相似度
  197. energy = torch.tanh(self.attn(torch.cat((hidden, encoder_outputs), dim=2)))
  198. # energy = [batch size, doc len, dec hid dim]
  199. # 转换尺寸为[batch, doc len]的形式作为和每个encoder状态的相似度
  200. attention = self.v(energy).squeeze(2)
  201. # attention = [batch size, doc len]
  202. # 规避encoder里pad符号,将这些位置的权重值降到很低
  203. attention = attention.masked_fill(mask == 0, -1e10)
  204. # 返回权重
  205. return F.softmax(attention, dim=1)
  206. Decoder接收之前的状态信息、输入的单词和context vector,预测生成摘要的单词
  207. Decoder的RNN与Encoder中的RNN有所不同,输入为[前一步生成单词的embedding;context vector]和前一步的状态 $h_{i-1}$,目的是引入attention的信息:
  208. $s_i = RNN([e(y_{i-1});c],s_{i-1})$
  209. 在预测生成的单词时,将context vector、 RNN的输出状态、前一步生成单词的embedding连接起来输入至全连接层预测:
  210. $y_i = softmax(w[c;s_i;e(y_{i-1})] + b)$
  211. 构建Decoder类,参数为:
  212. output_dim:输出的维度,为词表的长度
  213. emb_dim:embedding的维度
  214. enc_hid_dim:encoder每个位置输出的维度
  215. dec_hid_dim:decoder每个位置输出的维度
  216. dropout:dropout的概率
  217. attention:需要传入attention类,用来计算decoder每个位置的输出和encoder每个位置的输出的关系
  218. forword参数:
  219. input:输入单词的序号
  220. hidden:上一步Decoder输出的状态
  221. encoder_outputs:Encoder每个状态的输出,用来计算attention
  222. mask:mask矩阵,用来在计算attention时,规避pad符号的影响
  223. forword输出为全连接层的输出、这一步Decoder的输出和attention的权重。这里输出的是预测时全连接层的输出,目的是计算后续的损失。
  224. class Decoder(nn.Module):
  225. def __init__(self, output_dim, emb_dim, enc_hid_dim, dec_hid_dim, dropout, attention):
  226. super().__init__()
  227. self.output_dim = output_dim
  228. self.attention = attention
  229. self.embedding = nn.Embedding(output_dim, emb_dim)
  230. self.rnn = nn.GRU((enc_hid_dim * 2) + emb_dim, dec_hid_dim)
  231. self.fc_out = nn.Linear((enc_hid_dim * 2) + dec_hid_dim + emb_dim, output_dim)
  232. self.dropout = nn.Dropout(dropout)
  233. def forward(self, input, hidden, encoder_outputs, mask):
  234. # input = [batch size]
  235. # hidden = [batch size, dec hid dim]
  236. # encoder_outputs = [doc len, batch size, enc hid dim * 2]
  237. # mask = [batch size, doc len]
  238. input = input.unsqueeze(0)
  239. # input = [1, batch size]
  240. embedded = self.dropout(self.embedding(input))
  241. # embedded = [1, batch size, emb dim]
  242. a = self.attention(hidden, encoder_outputs, mask)
  243. # a = [batch size, doc len]
  244. a = a.unsqueeze(1)
  245. # a = [batch size, 1, doc len]
  246. encoder_outputs = encoder_outputs.permute(1, 0, 2)
  247. # encoder_outputs = [batch size, doc len, enc hid dim * 2]
  248. weighted = torch.bmm(a, encoder_outputs)
  249. # weighted = [batch size, 1, enc hid dim * 2]
  250. weighted = weighted.permute(1, 0, 2)
  251. # weighted = [1, batch size, enc hid dim * 2]
  252. rnn_input = torch.cat((embedded, weighted), dim=2)
  253. # rnn_input = [1, batch size, (enc hid dim * 2) + emb dim]
  254. output, hidden = self.rnn(rnn_input, hidden.unsqueeze(0))
  255. # output = [seq len, batch size, dec hid dim * n directions]
  256. # hidden = [n layers * n directions, batch size, dec hid dim]
  257. # seq len, n layers and n directions 在decoder为1的情况比较多, 所以:
  258. # output = [1, batch size, dec hid dim]
  259. # hidden = [1, batch size, dec hid dim]
  260. # output和hidden应该是相等的,output == hidden
  261. assert (output == hidden).all()
  262. embedded = embedded.squeeze(0)
  263. output = output.squeeze(0)
  264. weighted = weighted.squeeze(0)
  265. prediction = self.fc_out(torch.cat((output, weighted, embedded), dim=1))
  266. # prediction = [batch size, output dim]
  267. return prediction, hidden.squeeze(0), a.squeeze(1)
  268. 构建一个seq2seq类将encoder、decoder和attention整合起来,参数:
  269. encoder:encoder类
  270. decoder:decoder类
  271. doc_pad_idx:原文词典中pad符号的序号
  272. device:需要传入的设备
  273. create_mask的参数:
  274. doc:原文数据,create_mask会根据原文中pad符号的位置构建mask矩阵,这个mask矩阵会传入decoder,可以在计算attention时规避到pad符号的影响
  275. forward的参数:
  276. doc:传入的一个批次的原文数据,是已经由词转换成序号的数据
  277. doc_len:一个批次里每个数据的长度,用来生成mask矩阵
  278. #sum:摘要数据,同样已被转换成序号
  279. teacher_forcing_ratio:teacher_forcing的概率,teacher_forcing是文本生成技术常用的技术,在训练时,如果一个词生成有误差,可能会影响到后面所有的词,所以以一定的概率选择生成的词还是标注的训练数据中相应位置的词,在验证测试时,不会用到teacher_forcing
  280. forword输出生成的整体序列
  281. class Seq2Seq(nn.Module):
  282. def __init__(self, encoder, decoder, doc_pad_idx, device):
  283. super().__init__()
  284. self.encoder = encoder
  285. self.decoder = decoder
  286. self.doc_pad_idx = doc_pad_idx #原文词典中pad符号的序号
  287. self.device = device
  288. def create_mask(self, doc):
  289. mask = (doc != self.doc_pad_idx).permute(1, 0)
  290. return mask
  291. def forward(self, doc, doc_len, sum, teacher_forcing_ratio=0.5):
  292. # doc = [doc len, batch size]原文数据
  293. # doc_len = [batch size]
  294. # sum = [sum len, batch size]摘要数据
  295. # teacher_forcing_ratio 是使用teacher forcing的概率
  296. batch_size = doc.shape[1]
  297. sum_len = sum.shape[0]
  298. sum_vocab_size = self.decoder.output_dim
  299. # 定义一个tensor来储存每一个生成的单词序号
  300. outputs = torch.zeros(sum_len, batch_size, sum_vocab_size).to(self.device)
  301. # encoder_outputs是encoder所有的输出状态
  302. # hidden这是encoder整体的输出
  303. encoder_outputs, hidden = self.encoder(doc, doc_len)
  304. # 输入的第一个字符为<sos>
  305. input = sum[0, :]
  306. # 构建一个mask矩阵,包含训练数据原文中pad符号的位置
  307. mask = self.create_mask(doc)
  308. # mask = [batch size, doc len]
  309. for t in range(1, sum_len):
  310. # decoder 输入 前一步生成的单词embedding, 前一步状态hidden, encoder所有状态以及mask矩阵
  311. # 返回预测全连接层的输出和这一步的状态
  312. output, hidden, _ = self.decoder(input, hidden, encoder_outputs, mask)
  313. # 把output的信息存储在之前定义的outputs里
  314. outputs[t] = output
  315. # 生成一个随机数,来决定是否使用teacher forcing
  316. teacher_force = random.random() < teacher_forcing_ratio
  317. # 获得可能性最高的单词序号作为生成的单词
  318. top1 = output.argmax(1)
  319. # 如果使用teacher forcing则用训练数据相应位置的单词
  320. # 否则使用生成的单词 作为下一步的输入单词
  321. input = sum[t] if teacher_force else top1
  322. return outputs
  323. INPUT_DIM = len(DOCUMENT.vocab)#输入的词表大小
  324. OUTPUT_DIM = len(SUMMARY.vocab)#输出维度为词表的长度
  325. ENC_EMB_DIM = 4
  326. DEC_EMB_DIM = 4
  327. ENC_HID_DIM = 8
  328. DEC_HID_DIM = 8
  329. ENC_DROPOUT = 0.5
  330. DEC_DROPOUT = 0.5
  331. DOC_PAD_IDX = DOCUMENT.vocab.stoi[DOCUMENT.pad_token]
  332. attn = Attention(ENC_HID_DIM, DEC_HID_DIM)
  333. enc = Encoder(INPUT_DIM, ENC_EMB_DIM, ENC_HID_DIM, DEC_HID_DIM, ENC_DROPOUT)
  334. dec = Decoder(OUTPUT_DIM, DEC_EMB_DIM, ENC_HID_DIM, DEC_HID_DIM, DEC_DROPOUT, attn)
  335. model = Seq2Seq(enc, dec, DOC_PAD_IDX, device).to(device)
  336. #查看模型
  337. print(model)
  338. #模型训练
  339. 使用之前处理的训练数据对模型训练,主要包括
  340. 1)定义训练函数
  341. 2)定义验证函数
  342. 3)定义时间显示函数
  343. 4)训练过程
  344. 5)模型保存
  345. 3.1 定义训练函数¶定义训练一个epoch的函数,并返回损失,参数:
  346. model:用以训练的模型
  347. iteration:用以训练的数据迭代器
  348. optimizer:训练模型使用的优化器
  349. criterion:训练模型使用的损失函数
  350. ### clip:梯度截断的值,传入torch.nn.utils.clip_grad_norm_中,如果梯度超过这个clip,
  351. 会使用clip对梯度进行截断,可以预防训练初期的梯度爆炸现象。
  352. def train(model, iterator, optimizer, criterion, clip):
  353. model.train()#模型开始训练
  354. epoch_loss = 0
  355. for i, batch in enumerate(iterator):
  356. doc, doc_len = batch.document
  357. sum = batch.summary
  358. optimizer.zero_grad()
  359. output = model(doc, doc_len, sum)
  360. # sum = [sum len, batch size]
  361. # output = [sum len, batch size, output dim]
  362. output_dim = output.shape[-1]
  363. output = output[1:].view(-1, output_dim)
  364. sum = sum[1:].view(-1)
  365. # sum = [(sum len - 1) * batch size]
  366. # output = [(sum len - 1) * batch size, output dim]
  367. loss = criterion(output, sum)
  368. loss.backward()
  369. torch.nn.utils.clip_grad_norm_(model.parameters(), clip)
  370. optimizer.step()
  371. epoch_loss += loss.item()
  372. if i>20:break
  373. return epoch_loss / len(iterator)
  374. def evaluate(model, iterator, criterion):
  375. model.eval()
  376. ### 不启用 BatchNormalization 和 Dropout,
  377. ### 评估/验证的常用做法是torch.no_grad()与配对使用model.eval()以关闭梯度计算:
  378. epoch_loss = 0
  379. with torch.no_grad():
  380. for i, batch in enumerate(iterator):
  381. doc, doc_len = batch.document
  382. sum = batch.summary
  383. output = model(doc, doc_len, sum, 0) # 验证时不使用teacher forcing
  384. # sum = [sum len, batch size]
  385. # output = [sum len, batch size, output dim]
  386. output_dim = output.shape[-1]
  387. output = output[1:].view(-1, output_dim)
  388. sum = sum[1:].view(-1)
  389. # sum = [(sum len - 1) * batch size]
  390. # output = [(sum len - 1) * batch size, output dim]
  391. loss = criterion(output, sum)
  392. epoch_loss += loss.item()
  393. if i>20:break
  394. return epoch_loss / len(iterator)
  395. ### 定义时间显示函数
  396. def epoch_time(start_time, end_time):
  397. elapsed_time = end_time - start_time
  398. elapsed_mins = int(elapsed_time / 60)
  399. elapsed_secs = int(elapsed_time - (elapsed_mins * 60))
  400. return elapsed_mins, elapsed_secs
  401. N_EPOCHS = 20
  402. # N_EPOCHS = 10
  403. CLIP = 1
  404. lr= 0.001
  405. weight_decay= 0.0001
  406. SUM_PAD_IDX = SUMMARY.vocab.stoi[SUMMARY.pad_token]
  407. # 使用ignore_index参数,使得计算损失的时候不计算pad的损失
  408. criterion = nn.CrossEntropyLoss(ignore_index = SUM_PAD_IDX)
  409. optimizer = optim.Adam(model.parameters(), lr=lr,weight_decay=weight_decay)
  410. # 训练
  411. for epoch in range(N_EPOCHS):
  412. start_time = time.time()
  413. train_loss = train(model, train_iter, optimizer, criterion,CLIP)
  414. valid_loss = evaluate(model, val_iter, criterion)
  415. end_time = time.time()
  416. epoch_mins, epoch_secs = epoch_time(start_time, end_time)
  417. print(f'Epoch: {epoch + 1:02} | Time: {epoch_mins}m {epoch_secs}s')
  418. print(f'\tTrain Loss: {train_loss:.3f} | Train PPL: {math.exp(train_loss):7.3f}')
  419. print(f'\t Val. Loss: {valid_loss:.3f} | Val. PPL: {math.exp(valid_loss):7.3f}')
  420. """
  421. # 模型保存
  422. torch.save(model.state_dict(), './temp/model.pt')
  423. #模型加载
  424. model.load_state_dict(torch.load('./temp/model.pt'))
  425. #构建预测函数,输入生成摘要的字符串
  426. """"
  427. 构建生成的函数,输入原文的字符串,输出生成摘要的字符串,参数为:
  428. doc_sentence:摘要的字符串
  429. doc_field:之前定义的针对document的预处理格式DOCUMENT
  430. sum_field:之前定义的针对summary的预处理格式SUMMARY
  431. model:训练的seq2seq模型
  432. device:数据存放的设备
  433. max_len:生成摘要的最长长度
  434. """
  435. def generate_summary(doc_sentence,doc_field,sum_field,model,device,max_len=50):
  436. # 将模型置为验证模式
  437. model.eval()
  438. # 对原文分词
  439. nlp = spacy.load('en_core_web_md')
  440. # nlp = spacy.load('en_core_web_md')
  441. tokens = [token.text.lower() for token in nlp(doc_sentence)]
  442. # 为原文加上起始符号<sos>和结束符号<eos>
  443. tokens = [doc_field.init_token] + tokens + [doc_field.eos_token]
  444. # 将字符转换成序号
  445. doc_indexes = [doc_field.vocab.stoi[token] for token in tokens]
  446. # 转换成可以gpu计算的tensor
  447. doc_tensor = torch.LongTensor(doc_indexes).unsqueeze(1).to(device)
  448. doc_len = torch.LongTensor([len(doc_indexes)]).to(device)
  449. # 计算encoder
  450. with torch.no_grad():
  451. encoder_outputs, hidden = model.encoder(doc_tensor, doc_len)
  452. mask = model.create_mask(doc_tensor)
  453. # 生成摘要的一个单词 <sos>
  454. sum_indexes = [sum_field.vocab.stoi[sum_field.init_token]]
  455. # 构建一个attention tensor,存储每一步的attention
  456. attentions = torch.zeros(max_len, 1, len(doc_indexes)).to(device)
  457. for i in range(max_len):
  458. sum_tensor = torch.LongTensor([sum_indexes[-1]]).to(device)
  459. # 计算每一步的decoder
  460. with torch.no_grad():
  461. output, hidden, attention = model.decoder(sum_tensor, hidden, encoder_outputs, mask)
  462. attentions[i] = attention
  463. pred_token = output.argmax(1).item()
  464. # 如果出现了 <eos> 则直接结束计算
  465. if pred_token == sum_field.vocab.stoi[sum_field.eos_token]:
  466. break
  467. sum_indexes.append(pred_token)
  468. # 把序号转换成单词
  469. sum_tokens = [sum_field.vocab.itos[i] for i in sum_indexes]
  470. return sum_tokens[1:], attentions[:len(sum_tokens)-1]
  471. #读取数据
  472. data_test = pd.read_csv("datasets/test.csv",encoding='utf-8')
  473. data_test = data_test[:100]
  474. doc_sentence_list = data_test['document'].tolist()
  475. sum_sentence_list = data_test['summary'].tolist()
  476. #开始进行预测
  477. generated_summary = []
  478. for doc_sentence in doc_sentence_list:
  479. summary_words,attention = generate_summary(doc_sentence,DOCUMENT,SUMMARY,model,device,max_len = 50)
  480. summary_sentence = (' ').join(summary_words)
  481. generated_summary.append(summary_sentence)
  482. # 输出一个生成的摘要
  483. indices = random.sample(range(0, len(sum_sentence_list)), 5)
  484. for index in indices:
  485. print("document:")
  486. print(doc_sentence_list[index])
  487. print("generated summary:")
  488. print(generated_summary[index])
  489. print("reference summary:")
  490. print(sum_sentence_list[index])
  491. print("---------------")
  492. #模型加载
  493. model.load_state_dict(torch.load('./temp/model.pt'))
  494. # 输出测试集损失
  495. test_loss = evaluate(model, test_iter, criterion)
  496. print(f'| Test Loss: {test_loss:.3f} | Test PPL: {math.exp(test_loss):7.3f} |')
  497. #输出评估指标
  498. from rouge import Rouge
  499. rouge = Rouge()
  500. #scores = rouge.get_scores(generated_summary, sum_sentence_list,avg=True)
  501. scores = rouge.get_scores(generated_summary,sum_sentence_list,avg=True)
  502. print(scores)

  1. ## 模型的预测和加载
  2. #模型加载
  3. model.load_state_dict(torch.load('./temp/model.pt'))
  4. #构建预测函数,输入生成摘要的字符串
  5. """"
  6. 构建生成的函数,输入原文的字符串,输出生成摘要的字符串,参数为:
  7. doc_sentence:摘要的字符串
  8. doc_field:之前定义的针对document的预处理格式DOCUMENT
  9. sum_field:之前定义的针对summary的预处理格式SUMMARY
  10. model:训练的seq2seq模型
  11. device:数据存放的设备
  12. max_len:生成摘要的最长长度
  13. """
  14. def generate_summary(doc_sentence,doc_field,sum_field,model,device,max_len=50):
  15. # 将模型置为验证模式
  16. model.eval()
  17. # 对原文分词
  18. nlp = spacy.load('en_core_web_md')
  19. # nlp = spacy.load('en_core_web_md')
  20. tokens = [token.text.lower() for token in nlp(doc_sentence)]
  21. # 为原文加上起始符号<sos>和结束符号<eos>
  22. tokens = [doc_field.init_token] + tokens + [doc_field.eos_token]
  23. # 将字符转换成序号
  24. doc_indexes = [doc_field.vocab.stoi[token] for token in tokens]
  25. # 转换成可以gpu计算的tensor
  26. doc_tensor = torch.LongTensor(doc_indexes).unsqueeze(1).to(device)
  27. doc_len = torch.LongTensor([len(doc_indexes)]).to(device)
  28. # 计算encoder
  29. with torch.no_grad():
  30. encoder_outputs, hidden = model.encoder(doc_tensor, doc_len)
  31. mask = model.create_mask(doc_tensor)
  32. # 生成摘要的一个单词 <sos>
  33. sum_indexes = [sum_field.vocab.stoi[sum_field.init_token]]
  34. # 构建一个attention tensor,存储每一步的attention
  35. attentions = torch.zeros(max_len, 1, len(doc_indexes)).to(device)
  36. for i in range(max_len):
  37. sum_tensor = torch.LongTensor([sum_indexes[-1]]).to(device)
  38. # 计算每一步的decoder
  39. with torch.no_grad():
  40. output, hidden, attention = model.decoder(sum_tensor, hidden, encoder_outputs, mask)
  41. attentions[i] = attention
  42. pred_token = output.argmax(1).item()
  43. # 如果出现了 <eos> 则直接结束计算
  44. if pred_token == sum_field.vocab.stoi[sum_field.eos_token]:
  45. break
  46. sum_indexes.append(pred_token)
  47. # 把序号转换成单词
  48. sum_tokens = [sum_field.vocab.itos[i] for i in sum_indexes]
  49. return sum_tokens[1:], attentions[:len(sum_tokens)-1]
  50. #读取数据
  51. data_test = pd.read_csv("datasets/test.csv",encoding='utf-8')
  52. data_test = data_test[:100]
  53. doc_sentence_list = data_test['document'].tolist()
  54. sum_sentence_list = data_test['summary'].tolist()
  55. #开始进行预测
  56. generated_summary = []
  57. for doc_sentence in doc_sentence_list:
  58. summary_words,attention = generate_summary(doc_sentence,DOCUMENT,SUMMARY,model,device,max_len = 50)
  59. summary_sentence = (' ').join(summary_words)
  60. generated_summary.append(summary_sentence)
  61. # 输出一个生成的摘要
  62. indices = random.sample(range(0, len(sum_sentence_list)), 5)
  63. for index in indices:
  64. print("document:")
  65. print(doc_sentence_list[index])
  66. print("generated summary:")
  67. print(generated_summary[index])
  68. print("reference summary:")
  69. print(sum_sentence_list[index])
  70. print("---------------")
  71. #模型加载
  72. model.load_state_dict(torch.load('./temp/model.pt'))
  73. # 输出测试集损失
  74. test_loss = evaluate(model, test_iter, criterion)
  75. print(f'| Test Loss: {test_loss:.3f} | Test PPL: {math.exp(test_loss):7.3f} |')
  76. #输出评估指标
  77. from rouge import Rouge
  78. rouge = Rouge()
  79. #scores = rouge.get_scores(generated_summary, sum_sentence_list,avg=True)
  80. scores = rouge.get_scores(generated_summary,sum_sentence_list,avg=True)
  81. print(scores)

5、文本摘要模型评估函数

人工评价方法

评估一篇摘要的好坏,最简单的方法就是邀请若干专家根据标准进行人工评定。这种方法比较接近人的阅读感受,但是耗时耗力,无法用于对大规模自动文本摘要数据的评价,和自动文本摘要的应用场景并不符合。因此,文本摘要研究团队积极地研究自动评价方法。

自动评价方法

为了更高效地评估自动文本摘要,可以选定一个或若干指标(metrics),基于这些指标比较生成的摘要和参考摘要(人工撰写,被认为是正确的摘要)进行自动评价。目前最常用、也最受到认可的指标是ROUGE(Recall-Oriented Understudy for Gisting Evaluation)。ROUGE是Lin提出的一个指标集合,包括一些衍生的指标,最常用的有ROUGE-n,ROUGE-L,ROUGE-SU:

  • ROUGE-n:该指标旨在通过比较生成的摘要和参考摘要的n-grams(连续的n个词)评价摘要的质量。常用的有ROUGE-1,ROUGE-2,ROUGE-3。
  • ROUGE-L:不同于ROUGE-n,该指标基于最长公共子序列(LCS)评价摘要。如果生成的摘要和参考摘要的LCS越长,那么认为生成的摘要质量越高。该指标的不足之处在于,它要求n-grams一定是连续的。
  • ROUGE-SU:该指标综合考虑uni-grams(n = 1)和bi-grams(n = 2),允许bi-grams的第一个字和第二个字之间插入其他词,因此比ROUGE-L更灵活。 作为自动评价指标,ROUGE和人工评定的相关度较高,在自动评价摘要中能给出有效的参考。但另一方面,从以上对ROUGE指标的描述可以看出,ROUGE基于字的对应而非语义的对应,生成的摘要在字词上与参考摘要越接近,那么它的ROUGE值将越高。但是,如果字词有区别,即使语义上类似,得到的ROUGE值就会变低。换句话说,如果一篇生成的摘要恰好是在参考摘要的基础上进行同义词替换,改写成字词完全不同的摘要,虽然这仍是一篇质量较高的摘要,但ROUGE值会呈现相反的结论。从这个极端但可能发生的例子可以看出,自动评价方法所需的指标仍然存在一些不足。目前,为了避免上述情况的发生,在evaluation时,通常会使用几篇摘要作为参考和基准,这有效地增加了ROUGE的可信度,也考虑到了摘要的不唯一性。对自动评价摘要方法的研究和探索也是目前自动文本摘要领域一个热门的研究方向。

参考资料

1、python自然语言处理—Seq2Seq(sequence-to-sequence)_诗雨时的博客-CSDN博客_python seq2seq

2、seq2seq和attention应用到文档自动摘要_dili8870的博客-CSDN博客

3、个人工作平台

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/466520
推荐阅读
相关标签
  

闽ICP备14008679号