赞
踩
seq2seq 是一个 Encoder–Decoder 结构的网络,它的输入是一个序列,输出也是一个序列, Encoder 中将一个可变长度的信号序列变为固定长度的向量表达,Decoder 将这个固定长度的向量变成可变长度的目标的信号序列。这个结构最重要的地方在于输入序列和输出序列的长度是可变的,可以用于翻译,聊天机器人,句法分析,文本摘要等。
Encoder-Decoder结构先将输入数据编码成一个上下文向量c。得到c有多种方式,最简单的方法就是把Encoder的最后一个隐状态赋值给c,还可以对最后的隐状态做一个变换得到c,也可以对所有的隐状态做变换。
拿到c之后,就用另一个RNN网络对其进行解码,这部分RNN网络被称为Decoder。具体做法就是将c当做之前的初始状态
h
0
h_0
h0输入到Decoder中
还有一种做法是将c当做每一步的输入
编码器的作⽤是把⼀个不定⻓的输⼊序列变换成⼀个定⻓的背景变量c, 常⽤的编码器是循环神经⽹络。考虑批量⼤⼩为1的时序数据样本。假设输⼊序列是
x
1
,
x
2
,
.
.
.
,
x
T
x_1, x_2,...,x_T
x1,x2,...,xT ,例如
x
i
x_i
xi 是输入句子中的第
i
i
i个词。在时间步
t
t
t,循环神经网络将输入
x
t
x_t
xt 的特征向量和上个时间步的隐藏状态
h
t
−
1
h_{t-1}
ht−1 变换为当前时间步的隐藏状态
h
t
h_t
ht 。
h
t
=
f
(
x
t
,
h
t
−
1
)
h_t=f(x_t, h_{t-1})
ht=f(xt,ht−1)
编码器通过⾃定义函数
q
q
q 将各个时间步的隐藏状态变换为背景变量
c
=
q
(
h
1
,
h
2
,
.
.
.
,
h
T
)
c=q(h_1, h_2, ..., h_T)
c=q(h1,h2,...,hT)
当选择
q
(
h
1
,
h
2
,
.
.
.
,
h
T
)
=
h
T
q(h_1, h_2, ..., h_T)=h_T
q(h1,h2,...,hT)=hT 时,背景变量是输⼊序列最终时间步的隐藏状态
h
T
h_T
hT 。
给定训练样本中的输出序列 y 1 , y 2 , . . . , y T y_1, y_2, ..., y_T y1,y2,...,yT,对每个时间步 t t t 解码器输出 y t y_t yt 的条件概率将基于之前的输出序列 y 1 , y 2 , . . . , y t − 1 y_1, y_2, ..., y_{t-1} y1,y2,...,yt−1和背景变量 c c c,即 P ( y t ∣ y 1 , y 2 , . . . , y t − 1 , c ) P(y_t|y_1, y_2, ..., y_{t-1}, c) P(yt∣y1,y2,...,yt−1,c)
为此,我们可以使⽤另⼀个循环神经⽹络作为解码器,在输出序列的时间步
t
t
t,解码器将上⼀时间步的输出
y
t
−
1
y_{t-1}
yt−1 以及背景变量
c
c
c 作为输⼊,并将它们与上⼀时间步的隐藏状态
s
t
−
1
s_{t-1}
st−1 变换为当前时间步的隐藏状态
s
t
s_t
st。即:
s
t
=
g
(
y
t
−
1
,
c
,
s
t
−
1
)
s_t = g(y_{t-1}, c, s_{t-1})
st=g(yt−1,c,st−1)
有了解码器的隐藏状态后,我们可以使⽤⾃定义的输出层和 softmax 运算来计算输出P(y_t|y_1, y_2, …, y_{t-1}, c)
根据最⼤似然估计,我们可以最⼤化输出序列基于输⼊序列的条件概率
P
(
y
1
,
…
,
y
T
′
∣
x
1
,
…
,
x
T
)
=
∏
t
′
=
1
T
′
P
(
y
t
′
∣
y
1
,
…
,
y
t
′
−
1
,
x
1
,
…
,
x
T
)
=
∏
t
′
=
1
T
′
P
(
y
t
′
∣
y
1
,
…
,
y
t
′
−
1
,
c
)
并得到该输出序列的损失
−
log
P
(
y
1
,
…
,
y
T
′
∣
x
1
,
…
,
x
T
)
=
−
∑
t
′
=
1
T
′
log
P
(
y
t
′
∣
y
1
,
…
,
y
t
′
−
1
,
c
)
-\log P\left(y_{1}, \ldots, y_{T^{\prime}} | x_{1}, \ldots, x_{T}\right)=-\sum_{t^{\prime}=1}^{T^{\prime}} \log P\left(y_{t^{\prime}} | y_{1}, \ldots, y_{t^{\prime}-1}, \boldsymbol{c}\right)
−logP(y1,…,yT′∣x1,…,xT)=−t′=1∑T′logP(yt′∣y1,…,yt′−1,c)
在模型训练中,所有输出序列损失的均值通常作为需要最⼩化的损失函数;在训练中我们也可以将标签序列(训练集的真实输出序列)在上⼀个时间步的标签作为解码器在当前时间步的输⼊。这叫作强制教学(teacher forcing)。而在测试的时候因为不知道标签,因此将上一时刻的输出作为当前时刻的输入。
假设解码器的输出是⼀段⽂本序列。设输出⽂本词典 V V V(包含特殊符号" <eos> ")的⼤⼩为 ∣ V ∣ |V| ∣V∣,输出序列的最⼤⻓度为 T,所有可能的输出序列⼀共有 O ( ∣ V ∣ T ) O(|V|^T) O(∣V∣T)种,我们需要找出使得 P ( y 1 , … , y T ′ ∣ x 1 , … , x T ) = ∏ t ′ = 1 T ′ P ( y t ′ ∣ y 1 , … , y t ′ − 1 , c ) P\left(y_{1}, \ldots, y_{T^{\prime}} | x_{1}, \ldots, x_{T}\right)=\prod_{t^{\prime}=1}^{T^{\prime}} P\left(y_{t^{\prime}} | y_{1}, \ldots, y_{t^{\prime}-1}, \boldsymbol{c}\right) P(y1,…,yT′∣x1,…,xT)=∏t′=1T′P(yt′∣y1,…,yt′−1,c)最大的输出序列 y 1 , y 2 , . . . , y T y_1, y_2, ...,y_T y1,y2,...,yT
对每一次的输出,都使得
P
(
y
t
∣
y
1
,
y
2
,
.
.
.
,
y
t
−
1
,
c
)
P(y_t|y_1, y_2, ..., y_{t-1}, c)
P(yt∣y1,y2,...,yt−1,c)最大,此方法主要问题是不能保证得到最优输出序列,即使得
P
(
y
1
,
…
,
y
T
′
∣
x
1
,
…
,
x
T
)
P\left(y_{1}, \ldots, y_{T^{\prime}} | x_{1}, \ldots, x_{T}\right)
P(y1,…,yT′∣x1,…,xT)最大,如下例子
穷举所有可能的输出序列,输出条件概率最⼤的序列;穷举搜索可以得到最优输出序列,但它的计算开销 O ( ∣ V ∣ T ) O(|V|^T) O(∣V∣T) 很容易过⼤;⽽贪婪搜索的计算开销是 O ( T ∣ V ∣ ) O(T|V|) O(T∣V∣)
束搜索(beam search)是对贪婪搜索的⼀个改进算法。它有⼀个束宽(beam size)超参数。我们将它设为
k
k
k。在时间步1时,选取当前时间步条件概率最⼤的
k
k
k 个词,分别组成
k
k
k 个候选输出序列的⾸词。在之后的每个时间步,基于上个时间步的
k
k
k 个候选输出序列,从
k
∣
V
∣
k|V|
k∣V∣个可能的输出序列中选取条件概率最⼤的
k
k
k 个(词),作为该时间步的候选输出序列。最终,我们从各个时间步的候选输出序列中筛选出包含特殊符号“<eos>”的序列,并将它们中所有特殊符号“<eos>”后⾯的⼦序列舍弃,得到最终候选输出序列的集合。
上图头通过一个例子演示了束搜索的过程。假设输出序列的词典中只包含 5 个元素,即
V
=
{
A
,
B
,
C
,
D
,
E
}
V=\{A, B, C, D, E\}
V={A,B,C,D,E},且其中⼀个为特殊符号“<eos>”。设束搜索的束宽等于2,输出序列最⼤⻓度为3。在输出序列的时间步1时,假设条件概率
P
(
y
1
∣
c
)
P(y_1|c)
P(y1∣c) 最⼤的2个词为
A
A
A和
C
C
C 。我们在时间步2时将对所有的
y
2
∈
V
y_2 \in V
y2∈V都分别计算
P
(
y
2
∣
A
,
c
)
P(y_2|A, c)
P(y2∣A,c)和
P
(
y
2
∣
C
,
c
)
P(y_2|C, c)
P(y2∣C,c),并从计算出的10个条件概率中取最⼤的2个,假设为
P
(
B
∣
A
,
c
)
P(B|A, c)
P(B∣A,c)和
P
(
E
∣
C
,
c
)
P(E|C,c)
P(E∣C,c);那 么 , 我 们 在 时 间 步 3 时将对所有的
y
3
∈
V
y_3 \in V
y3∈V都 分 别 计 算
P
(
y
3
∣
A
,
B
,
c
)
P(y_3|A, B, c)
P(y3∣A,B,c)和
P
(
y
3
∣
C
,
E
,
c
)
P(y_3|C, E, c)
P(y3∣C,E,c)并 从 计 算 出 的 10 个条件概率中取最⼤的 2 个,假设为
P
(
D
∣
A
,
B
,
c
)
P(D|A, B, c)
P(D∣A,B,c)和
P
(
D
∣
C
,
E
,
c
)
P(D|C, E, c)
P(D∣C,E,c);如此⼀来,我们得到6个候选输出序列:(1) A ; (2) C ; (3) A, B; (4) C, E ; (5) A, B, D; (6) C E D我们将根据这6个序列得出最终候选输出序列的集合。
在最终候选输出序列的集合中,我们取以下分数最⾼的序列作为输出序列:
1
L
α
log
P
(
y
1
,
…
,
y
L
)
=
1
L
α
∑
t
′
=
1
L
log
P
(
y
t
′
∣
y
1
,
…
,
y
t
′
−
1
,
c
)
\frac{1}{L^{\alpha}} \log P\left(y_{1}, \ldots, y_{L}\right)=\frac{1}{L^{\alpha}} \sum_{t^{\prime}=1}^{L} \log P\left(y_{t^{\prime}} | y_{1}, \ldots, y_{t^{\prime}-1}, \boldsymbol{c}\right)
Lα1logP(y1,…,yL)=Lα1t′=1∑LlogP(yt′∣y1,…,yt′−1,c)
其中
L
L
L 为最终候选序列⻓度,
α
\alpha
α⼀般可选为0.75;分⺟上的
L
α
L^\alpha
Lα是为了惩罚较⻓序列在以上分数中较多的对数相加项,束搜索的计算开销为
O
(
k
∣
V
∣
T
)
O(k|V|T)
O(k∣V∣T) 。这介于贪婪搜索和穷举搜索的计算开销之间。此外,贪婪搜索可看作是束宽为1的束搜索。束搜索通过灵活的束宽
k
k
k 来权衡计算开销和搜索质量。
上文中,解码器在各个时间步依赖相同的背景变量来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态或者各个时间步隐藏状态的变换(即背景向量是一个固定的向量)。很明显这样做有两个缺点
(1)中间语义向量无法完全表达整个输入序列的信息
(2)随着输入信息长度的增加,由于向量长度固定,先前编码好的信息会被后来的信息覆盖,丢失很多信息
为了解决上面两个问题,于是引入了 Attention 模型。Attention机制通过在每个时间输入不同的c来解决这个问题;仍然以循环神经⽹络为例,注意⼒机制通过对编码器所有时间步的隐藏状态做加权平均来得到背景变量。解码器在每⼀时间步调整这些权重,即注意⼒权重,从⽽能够在不同时间步分别关注输⼊序列中的不同部分并编码进相应时间步的背景变量。从上文分析中可知,解码器在时间步 t t t时隐藏状态为 s t = g ( y t − 1 , s t − 1 , c ) s_t = g(y_{t-1}, s_{t-1}, c) st=g(yt−1,st−1,c),而在带注意力机制的情况下,每个时间步输入的 c c c不同,因此带注意力机制的解码器时间步 t t t的隐藏状态为 s t = g ( y t − 1 , s t − 1 , c t ) s_t = g(y_{t-1}, s_{t-1}, c_t) st=g(yt−1,st−1,ct)。这里的关键是如何计算 c t c_t ct以及利用它来更新 s t s_t st
下图绘制了注意⼒机制如何为解码器在时间步2计算背景变量。⾸先,函数
a
a
a 根据解码器在时间步1的隐藏状态和编码器在各个时间步的隐藏状态计算softmax运算的输⼊。softmax运算输出概率分布并对编码器各个时间步的隐藏状态做加权平均,从⽽得到背景变量。
具体来说,令编码器在时间步
t
t
t 的隐藏状态为
h
t
h_t
ht ,且总时间步数为
T
T
T。那么解码器在时间步
i
i
i的背景变量为所有编码器隐藏状态的加权平均:
c
i
=
∑
t
=
1
T
α
i
t
h
t
\boldsymbol{c}_i=\sum_{t=1}^{T} \alpha_{i t} \boldsymbol{h}_{t}
ci=t=1∑Tαitht
其中给定
i
i
i时,权重
α
i
t
\alpha_{it}
αit是一个概率分布,为了得到概率分布,,我们可以使⽤
softmax运算:
α
i
t
=
exp
(
e
i
t
)
∑
k
=
1
T
exp
(
e
i
k
)
,
t
=
1
,
…
,
T
\alpha_{i t}=\frac{\exp \left(e_{i t}\right)}{\sum_{k=1}^{T} \exp \left(e_{i k}\right)}, \quad t=1, \ldots, T
αit=∑k=1Texp(eik)exp(eit),t=1,…,T
现在,我们需要定义如何计算上式中softmax运算的输⼊
e
i
t
e_{i t}
eit,由于
e
i
t
e_{i t}
eit同时取决于解码器的时间步
i
i
i 和编码器的时间步
t
t
t,我们不妨以解码器在时间步
i
−
1
i-1
i−1 的隐藏状态
s
i
−
1
s_{i-1}
si−1与编码器在时间步
t
t
t的隐藏状态
h
t
h_t
ht为输入,并通过函数
a
a
a 计算
e
i
t
e_{i t}
eit
e
i
t
=
a
(
s
i
−
1
,
h
t
)
e_{it}=a\left(\boldsymbol{s}_{i-1}, \boldsymbol{h}_{t}\right)
eit=a(si−1,ht)
这⾥函数
a
a
a有多种选择, 如 果 两 个 输 ⼊ 向 量 ⻓ 度 相 同 , ⼀ 个 简 单 的 选 择 是 计 算 它 们 的 内 积:
a
(
s
,
h
)
=
s
T
h
a(s, h)=s^Th
a(s,h)=sTh 。⽽最早提出注意⼒机制的论⽂则将输⼊连结后通过含单隐藏层的多层感知机变换
a
(
s
,
h
)
=
v
⊤
tanh
(
W
s
s
+
W
h
h
)
a(\boldsymbol{s}, \boldsymbol{h})=\boldsymbol{v}^{\top} \tanh \left(\boldsymbol{W}_{s} \boldsymbol{s}+\boldsymbol{W}_{h} \boldsymbol{h}\right)
a(s,h)=v⊤tanh(Wss+Whh)
其中
v
v
v,
W
s
W_s
Ws,
W
h
W_h
Wh都是可以学习的模型参数。
⼴义上,注意⼒机制的输⼊包括查询项以及⼀⼀对应的键项和值项,其中值项是需要加权平均的⼀组项。在加权平均中,值项的权重来⾃查询项以及与该值项对应的键项的计算。
在上⾯的例⼦中,查询项为解码器的隐藏状态,键项和值项均为编码器的隐藏状态,让我们考虑⼀个常⻅的简单情形,即编码器和解码器的隐藏单元个数均为
h
h
h ,且函数
a
(
s
,
h
)
=
s
T
h
a(s, h)=s^Th
a(s,h)=sTh 。假设我们希望根据解码器单个隐藏状态
s
i
−
1
∈
R
h
\boldsymbol{s}_{i-1} \in \mathbb{R}^{h}
si−1∈Rh 和编码器所有隐藏状态
h
t
∈
R
h
,
t
=
1
,
2
,
.
.
.
,
T
h_t \in \mathbb R^{h},t=1, 2,...,T
ht∈Rh,t=1,2,...,T 来计算背景向量
c
i
∈
R
h
c_i \in \mathbb R^h
ci∈Rh,我们可以将查询项矩阵
Q
∈
R
1
×
h
Q \in \mathbb R^{1 \times h}
Q∈R1×h设为
s
i
−
1
s_{i-1}
si−1,并令键项矩阵
K
∈
R
T
×
h
\boldsymbol K \in \mathbb R^{T \times h}
K∈RT×h和值项矩阵
V
∈
R
T
×
h
\boldsymbol V \in \mathbb R^{T \times h}
V∈RT×h相同,且第
t
t
t ⾏均为
h
t
⊤
h_t^{\top}
ht⊤。此时,我们只需要通过⽮量化计算
softmax
(
Q
K
⊤
)
V
\operatorname{softmax}\left(\boldsymbol{Q} \boldsymbol{K}^{\top}\right) \boldsymbol{V}
softmax(QK⊤)V
即可算出转置后的背景向量
c
i
⊤
c_i^{\top}
ci⊤。当查询项矩阵
Q
Q
Q 的⾏数为
n
n
n 时,上式将得到
n
n
n⾏的输出矩阵。输出矩阵与查询项矩阵在相同⾏上⼀⼀对应。
以⻔控循环单元为例,在解码器中我们可以对RNN总结中⻔控循环单元的设计稍作修改,从⽽变换上⼀时间步
i
−
1
i-1
i−1 的输出
y
i
−
1
y_{i-1}
yi−1、隐藏状态
s
i
−
1
s_{i-1}
si−1和当前时间步
i
i
i 的含注意⼒机制的背景变量
c
i
c_{i}
ci。解码器在时间步
i
i
i 的隐藏状态为
s
i
=
z
i
⊙
s
i
−
1
+
(
1
−
z
i
)
⊙
s
~
i
\boldsymbol{s}_{i}=\boldsymbol{z}_{i} \odot \boldsymbol{s}_{i-1}+\left(1-\boldsymbol{z}_{i}\right) \odot \tilde{\boldsymbol{s}}_{i}
si=zi⊙si−1+(1−zi)⊙s~i
其中的重置⻔、更新⻔和候选隐藏状态分别为
r
i
=
σ
(
W
y
r
y
i
−
1
+
W
s
r
s
i
−
1
+
W
c
r
c
i
+
b
r
)
z
i
=
σ
(
W
y
z
y
i
−
1
+
W
s
z
s
i
−
1
+
W
c
z
c
i
+
b
z
)
s
~
i
=
tanh
(
W
y
s
y
i
−
1
+
W
s
s
(
s
i
−
1
⊙
r
i
)
+
W
c
s
c
i
+
b
s
)
下图为未作修改的GRU
下图为修改过的GRU
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。