赞
踩
本文讲解Sequence-to-Sequence(Seq2Seq)模型原理。
本人全部文章请参见:博客文章导航目录
本文归属于:自然语言处理系列
本系列实践代码请参见:我的GitHub
前文:循环神经网络的改进:多层RNN、双向RNN与预训练
后文:注意力机制(Attention):Seq2Seq模型的改进
在机器翻译等多对多(many to many)NLP任务中,输入和输出序列长度往往不固定。RNN每读取一个新的输入
x
t
x_t
xt,就会生成状态向量
h
t
h_t
ht作为当前时刻的输出和下一时刻的输入状态,将
T
T
T个输入
x
0
∼
x
T
x_0\sim x_T
x0∼xT依次输入RNN,相应地会产生
T
T
T个输出,即输入和输出序列长度必定相同,因此RNN不适合解决该类问题。适合解决这种输入和输出序列长度均不固定的NLP任务的模型是Seq2Seq模型。
Seq2Seq模型由编码器(Encoder)和解码器(Decoder)组成。编码器用于编码输入序列信息,其将任意长度的输入序列包含的信息编码成一个信息向量。解码器用于解码信息向量,生成输出序列。
Seq2Seq模型的Encoder编码输入序列信息,从输入序列中提取特征。由于Encoder的输入是一个序列,因此Encoder一般是一个RNN。从理论上来说,Encoder可以是任意结构的神经网络。在深度学习实践中,Encoder一般是一个与Decoder类型相同的RNN。
Decoder解码Encoder生成的信息向量,生成输出序列。Decoder是一个RNN,其初始状态不是全0向量,而是Encoder的最后一个状态。
在生成序列时,将Encoder的最后一个状态作为Decoder的初始状态,将起始符[start]输入Decoder RNN,Decoder RNN将状态向量更新为
S
1
S_1
S1,将
S
1
S_1
S1输入
S
o
f
t
m
a
x
Softmax
Softmax分类器,可以生成预测概率
P
1
P_1
P1,根据概率
P
1
P_1
P1可以确定第一个生成序列元素
Z
1
Z_1
Z1。Decoder RNN将
Z
1
Z_1
Z1作为输入,将状态向量从
S
1
S_1
S1更新为
S
2
S_2
S2,将
S
2
S_2
S2输入
S
o
f
t
m
a
x
Softmax
Softmax分类器,可以生成预测概率
P
2
P_2
P2,根据概率
P
2
P_2
P2可以确定下一个生成序列元素
Z
2
Z_2
Z2。以此类推,将
Z
t
−
1
Z_{t-1}
Zt−1作为输入,将状态向量从
S
t
−
1
S_{t-1}
St−1更新为
S
t
S_t
St,将
S
t
S_t
St输入
S
o
f
t
m
a
x
Softmax
Softmax分类器,可以生成预测概率
P
t
P_t
Pt,根据概率
P
t
P_t
Pt确定下一个生成序列元素为停止符[stop]。
当生成的元素为停止符,则终止序列生成,返回
Z
1
Z
2
⋯
Z
t
−
1
Z_1Z_2\cdots Z_{t-1}
Z1Z2⋯Zt−1为生成的输出序列。
Encoder对输入序列进行处理,将输入序列信息压缩到信息向量中。Encoder最后一个状态是整个输入序列的概要,即对输入序列的编码。在理想状态下,Encoder最后一个状态包含了整个输入序列的完整信息。
当Encoder采用RNN结构,而且输入序列很长,则RNN会遗忘输入序列部分信息。当Encoder部分信息被遗忘,则Decoder接收到的信息向量中不包含输入序列的完整信息,因此Decoder生成的输出序列肯定存在偏差。缓解RNN的遗忘问题,显然可以使用前文循环神经网络的改进中所述双向RNN方法改进Encoder。
当使用双向RNN结构改进Encoder,Encoder输出的最后一个状态向量长度会变成单向RNN的两倍,但是Encoder和Decoder的状态向量维度并不要求必须相同。在此情况下,Encoder状态向量长度是Decoder状态向量长度的2倍。
此外,还可以使用前文所述多层RNN方法改进Encoder结构,使得Encoder信息编码能力更强。
改进训练方法,使得Encoder被训练的更好,显然可以使用前文所述预训练方法。当Encoder使用了Embedding层,则可以事先在大数据集上预训练Embedding层。此外,还可以使用多任务学习(Multi-Task Learning)方法使Encoder被训练的更好。
比如在机器翻译中,Encoder输入为一种语言句子,Decoder生成另一种语言对应的句子。训练数据是两种不同语言的“句子对”。将语言A翻译成语言B可以视为一个任务,可以添加多个任务,比如将语言A翻译成语言C、语言D等等,甚至可以将语言A翻译成语言A本身。在这些任务中,均共用一个Encoder,这样处理可使训练Encoder的数据多好几倍,使Encoder被训练的更好。
在训练Seq2Seq模型时,Decoder在
t
t
t时刻的输入为
t
−
1
t-1
t−1时刻输出状态向量经过
S
o
f
t
m
a
x
Softmax
Softmax分类器选定的元素。如果
t
−
1
t-1
t−1时刻的输出是错误的,则RNN在
t
t
t时刻接收了一个错误的输入,因此
t
t
t时刻的输出也很可能是错误的,而且这种错误会一直传递下去。
使用Teacher Forcing,在训练Seq2Seq模型时,Decoder在
t
t
t时刻的输入并非一定为
t
−
1
t-1
t−1时刻输出状态向量经过
S
o
f
t
m
a
x
Softmax
Softmax分类器选定的元素,而是有一定概率采用正确的序列元素作为输入。
Beam Search(集束搜索)不总是选取
t
−
1
t-1
t−1时刻输出概率值最大的元素,而是选取
t
−
1
t-1
t−1时刻输出概率值最大的
t
o
p
top
top-
k
k
k个元素作为
t
t
t时刻Decoder的输入。分别将
t
−
1
t-1
t−1时刻的
k
k
k个不同的输出作为
t
t
t时刻的输入,对于每一个输入,Decoder计算出在
t
t
t时刻所有
l
l
l个候选元素的概率,然后在
k
l
kl
kl个结果中选择概率值最大的
t
o
p
top
top-
k
k
k个元素作为
t
+
1
t+1
t+1时刻Decoder的输入,并重复这个过程。
Beam Search用于模型测试阶段,可减小模型训练阶段性能与测试阶段性能的差异。
改进Seq2Seq模型,除了上述方法之外,还有一种方法:注意力机制(Attention)。Attention可以避免RNN遗忘的问题,而且可以让RNN关注最相关的信息,从而大幅提高机Seq2Seq模型的效果。Attention原理请参见后文:注意力机制(Attention):Seq2Seq模型的改进。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。