赞
踩
1. Seq2Seq
https://blog.csdn.net/weixin_44305115/article/details/101461899
向量C就是输入序列通过Encode得到的序列的编码,代表在某一个向量空间的输入序列的编码。
2. Attention机制
但是由于在解码的时候,都依赖于这一个唯一的C,w1,w2,w3在解码的时候,所关注的部分是没有区别的,所以提出Attention机制,来优化Seq2Seq。
理想情况下,在一位一位进行解码的过程中,C应该有所区别,代表当前解码时,Decoder更关注的是输入序列的哪个位置(这个直观想法非常好)
1) Bahdanau Attention
《NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE》
2)LuongAttention
《Effective Approaches to Attention-based Neural Machine Translation》
计算过程:
3)location-based attention
上两个图是pytorch Seq2Seq with attention 的toturial,use location-based attention。
4)多种Attention:
参考:
https://blog.csdn.net/u010960155/article/details/82853632
https://blog.csdn.net/weixin_44305115/article/details/101461899
https://zhuanlan.zhihu.com/p/272662664
https://github.com/graykode/nlp-tutorial/blob/master/4-2.Seq2Seq(Attention)/Seq2Seq(Attention).py (LuongAttention)
https://blog.csdn.net/wi162yyxq/article/details/103600170
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。