当前位置:   article > 正文

Attention机制------个人总结_attention weight

attention weight

本文可能极度雷同“参考文献【5】”,因为毕竟母版是它,本文只能说是我在它本身的的缩略篇,大家最好还是把原版好好看看,原本也是想转载的,但是目前作者好像几个月没更新了

1.前言

在自然语言领域常能看到attention的影子,无时无刻,无所不在,那attetion到底是什么呢,下面来说一下我的理解,也是对自己知识的一个总结 ,后续会继续补充.我们每次看看别人的参考理解时,似懂非懂,但是都能知道一个差不多的意思,那就是"attention大概是找到一句话中某个比较重要的词吧",那么现在深入了解一下吧。

大家可以阅读一下 深度学习中的注意力机制
这篇文章讲的很好

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/316374
推荐阅读
相关标签
  

闽ICP备14008679号