当前位置:   article > 正文

NLP——attention_mlp 相似性

mlp 相似性

https://blog.csdn.net/TG229dvt5I93mxaQ5A6U/article/details/78422216

1、什么是attention、为什么提出

模仿人脑机制,时间空间注意力

为了解决序列增长的注意力不集中的问题

依托于encoder-decoder

 

2、attention机制原理

总述

 

三个阶段

query/key/value

1:相似性度量 计算(点积 余弦相似度 MLP)

2:softmax归一化计算权重

3:加权求和得到中间attention语义值

引自:https://blog.csdn.net/TG229dvt5I93mxaQ5A6U/article/details/78422216

3、多头attention

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/753096
推荐阅读
相关标签
  

闽ICP备14008679号