当前位置:   article > 正文

Sequence-to-Sequence模型原理_sequence-to-sequence机制

sequence-to-sequence机制

1. 前言

本文讲解Sequence-to-Sequence(Seq2Seq)模型原理。
本人全部文章请参见:博客文章导航目录
本文归属于:自然语言处理系列
本系列实践代码请参见:我的GitHub
前文:循环神经网络的改进:多层RNN、双向RNN与预训练
后文:注意力机制(Attention):Seq2Seq模型的改进

2. Seq2Seq模型结构

在机器翻译等多对多(many to many)NLP任务中,输入和输出序列长度往往不固定。RNN每读取一个新的输入 x t x_t xt,就会生成状态向量 h t h_t ht作为当前时刻的输出和下一时刻的输入状态,将 T T T个输入 x 0 ∼ x T x_0\sim x_T x0xT依次输入RNN,相应地会产生 T T T个输出,即输入和输出序列长度必定相同,因此RNN不适合解决该类问题。适合解决这种输入和输出序列长度均不固定的NLP任务的模型是Seq2Seq模型。
Seq2Seq模型由编码器(Encoder)和解码器(Decoder)组成。编码器用于编码输入序列信息,其将任意长度的输入序列包含的信息编码成一个信息向量。解码器用于解码信息向量,生成输出序列。

2.1 编码器(Encoder)

Seq2Seq模型的Encoder编码输入序列信息,从输入序列中提取特征。由于Encoder的输入是一个序列,因此Encoder一般是一个RNN。从理论上来说,Encoder可以是任意结构的神经网络。在深度学习实践中,Encoder一般是一个与Decoder类型相同的RNN。
图一

2.2 解码器(Decoder)

Decoder解码Encoder生成的信息向量,生成输出序列。Decoder是一个RNN,其初始状态不是全0向量,而是Encoder的最后一个状态。
在生成序列时,将Encoder的最后一个状态作为Decoder的初始状态,将起始符[start]输入Decoder RNN,Decoder RNN将状态向量更新为 S 1 S_1 S1,将 S 1 S_1 S1输入 S o f t m a x Softmax Softmax分类器,可以生成预测概率 P 1 P_1 P1,根据概率 P 1 P_1 P1可以确定第一个生成序列元素 Z 1 Z_1 Z1。Decoder RNN将 Z 1 Z_1 Z1作为输入,将状态向量从 S 1 S_1 S1更新为 S 2 S_2 S2,将 S 2 S_2 S2输入 S o f t m a x Softmax Softmax分类器,可以生成预测概率 P 2 P_2 P2,根据概率 P 2 P_2 P2可以确定下一个生成序列元素 Z 2 Z_2 Z2。以此类推,将 Z t − 1 Z_{t-1} Zt1作为输入,将状态向量从 S t − 1 S_{t-1} St1更新为 S t S_t St,将 S t S_t St输入 S o f t m a x Softmax Softmax分类器,可以生成预测概率 P t P_t Pt,根据概率 P t P_t Pt确定下一个生成序列元素为停止符[stop]。
当生成的元素为停止符,则终止序列生成,返回 Z 1 Z 2 ⋯ Z t − 1 Z_1Z_2\cdots Z_{t-1} Z1Z2Zt1为生成的输出序列。
图二

3. Seq2Seq模型改进

3.1 Encoder改进方法

3.1.1 结构改进

Encoder对输入序列进行处理,将输入序列信息压缩到信息向量中。Encoder最后一个状态是整个输入序列的概要,即对输入序列的编码。在理想状态下,Encoder最后一个状态包含了整个输入序列的完整信息。
当Encoder采用RNN结构,而且输入序列很长,则RNN会遗忘输入序列部分信息。当Encoder部分信息被遗忘,则Decoder接收到的信息向量中不包含输入序列的完整信息,因此Decoder生成的输出序列肯定存在偏差。缓解RNN的遗忘问题,显然可以使用前文循环神经网络的改进中所述双向RNN方法改进Encoder。

当使用双向RNN结构改进Encoder,Encoder输出的最后一个状态向量长度会变成单向RNN的两倍,但是Encoder和Decoder的状态向量维度并不要求必须相同。在此情况下,Encoder状态向量长度是Decoder状态向量长度的2倍。

此外,还可以使用前文所述多层RNN方法改进Encoder结构,使得Encoder信息编码能力更强。

3.1.2 训练方法改进

改进训练方法,使得Encoder被训练的更好,显然可以使用前文所述预训练方法。当Encoder使用了Embedding层,则可以事先在大数据集上预训练Embedding层。此外,还可以使用多任务学习(Multi-Task Learning)方法使Encoder被训练的更好。
比如在机器翻译中,Encoder输入为一种语言句子,Decoder生成另一种语言对应的句子。训练数据是两种不同语言的“句子对”。将语言A翻译成语言B可以视为一个任务,可以添加多个任务,比如将语言A翻译成语言C、语言D等等,甚至可以将语言A翻译成语言A本身。在这些任务中,均共用一个Encoder,这样处理可使训练Encoder的数据多好几倍,使Encoder被训练的更好。

3.2 Decoder改进方法

3.2.1 Teacher Forcing

在训练Seq2Seq模型时,Decoder在 t t t时刻的输入为 t − 1 t-1 t1时刻输出状态向量经过 S o f t m a x Softmax Softmax分类器选定的元素。如果 t − 1 t-1 t1时刻的输出是错误的,则RNN在 t t t时刻接收了一个错误的输入,因此 t t t时刻的输出也很可能是错误的,而且这种错误会一直传递下去。
使用Teacher Forcing,在训练Seq2Seq模型时,Decoder在 t t t时刻的输入并非一定为 t − 1 t-1 t1时刻输出状态向量经过 S o f t m a x Softmax Softmax分类器选定的元素,而是有一定概率采用正确的序列元素作为输入。

3.2.2 Beam Search

Beam Search(集束搜索)不总是选取 t − 1 t-1 t1时刻输出概率值最大的元素,而是选取 t − 1 t-1 t1时刻输出概率值最大的 t o p top top- k k k个元素作为 t t t时刻Decoder的输入。分别将 t − 1 t-1 t1时刻的 k k k个不同的输出作为 t t t时刻的输入,对于每一个输入,Decoder计算出在 t t t时刻所有 l l l个候选元素的概率,然后在 k l kl kl个结果中选择概率值最大的 t o p top top- k k k个元素作为 t + 1 t+1 t+1时刻Decoder的输入,并重复这个过程。
Beam Search用于模型测试阶段,可减小模型训练阶段性能与测试阶段性能的差异。


改进Seq2Seq模型,除了上述方法之外,还有一种方法:注意力机制(Attention)。Attention可以避免RNN遗忘的问题,而且可以让RNN关注最相关的信息,从而大幅提高机Seq2Seq模型的效果。Attention原理请参见后文:注意力机制(Attention):Seq2Seq模型的改进

4. 参考资料链接

  1. https://www.jianshu.com/p/80436483b13b
  2. https://blog.csdn.net/qq_30219017/article/details/89090690
  3. https://www.youtube.com/watch?v=gxXJ58LR684&list=PLvOO0btloRnuTUGN4XqO85eKPeFSZsEqK&index=7
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/626241
推荐阅读
相关标签
  

闽ICP备14008679号