当前位置:   article > 正文

基于LSTM的seq2seq模型介绍以及相应的改进

基于lstm的seq2seq

#简介
DNN模型在语言识别等任务上具有强大的能力,主要是因为DNN可以在适当步骤中进行并行计算,尽管DNN很灵活并很有用,但是DNN只能用于固定维度的输入以及输出的任务中,并且输入以及输出已知。因此,Ilya sutskever .et提出了基于LSTM模型的端到端的架构。其中用一个LSTM作为encoder,得到一个基于时间序列的向量表示,另外,用另一个LSTM网络作为decoder,从向量中抽取出sequence。
#seq2seq
这里写图片描述

LSTM一个属性是将变长的sequence映射到一个固定长度的向量中去,在训练中,可以使用SGD对模型进行训练,另外,在训练中,可以将encoder的输入sequence倒序输入,在Ilya sutskever .et试验中,这种方法表现更好。
下面是几个改进的地方:
这里写图片描述

#实验
##实验参数
这里写图片描述

这里写图片描述

链接:
《sequence to sequence Learning with Neural network》
《A Neural Conversational Model》

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/167947
推荐阅读
相关标签
  

闽ICP备14008679号