赞
踩
简单来说就是模型输入是序列,输出也是序列。典型的任务有:机器翻译任务,文本摘要任务。
使用循环神经网络来处理长文本序列,循环神经网络设置了循环结构,事件链之间存在依赖关关系。
attention技术使得更多的信息传递给decoder,并且通过attention可以使得模型更加关注到输入序列的重要信息,如翻译中文学生时,更加关注到英文student。
下图是上图中解码器(紫色)展示了带有attention的解码过程:
h1,h2和h3代表了三个单词,即通过encoder的编码的三个隐藏态
可视化注意力机制:
推荐github学习项目:Transformer
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。