当前位置:   article > 正文

【深度学习 九】transformer_transformer的encoder输出什么

transformer的encoder输出什么

1 transformer的encoder-decoder结构:

结构内部:

 

2 encoder:

2.1  输入部分

embedding和postitional encoding(位置编码)

 

为什么需要位置编码:如RNN每一time steps共享一套参数,串行输入输出,而transformer采用可以并行出入几个单词或者一串句子,优点是处理效率高,缺点是无法表示时序关系,所以要对输入的embedding加上postitional encoding。

 最终输入的数据:

 2.2 注意力机制

 2.2.1 基本的注意力机制

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/348360
推荐阅读
相关标签
  

闽ICP备14008679号