赞
踩
Encoder负责将输入序列压缩成指定长度的向量,这个向量就可以看成是这个序列的语义,这个过程称为编码。
Decoder部分就是根据Encoder部分输出的语义向量c来做解码工作。以翻译为例,就是生成相应的译文。注意生成的序列是不定长的,而且上一时刻的输出通常要作为下一时刻的输入。
这张图体现出单独seq2seq模型的缺点,即预测w时,用到的数据只能是上一点的输出以及当前点的输入,再往前的数据就拿不到了。
因此接下来引入注意力(Attention)机制。。
注意力机制是在序列到序列模型中用于注意编码器状态的最常用方法,它同时还可用于回顾序列模型的过去状态。
注意力机制的作用:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。