赞
踩
本文可能极度雷同“参考文献【5】”,因为毕竟母版是它,本文只能说是我在它本身的的缩略篇,大家最好还是把原版好好看看,原本也是想转载的,但是目前作者好像几个月没更新了
在自然语言领域常能看到attention的影子,无时无刻,无所不在,那attetion到底是什么呢,下面来说一下我的理解,也是对自己知识的一个总结 ,后续会继续补充.我们每次看看别人的参考理解时,似懂非懂,但是都能知道一个差不多的意思,那就是"attention大概是找到一句话中某个比较重要的词吧",那么现在深入了解一下吧。
大家可以阅读一下 深度学习中的注意力机制
这篇文章讲的很好
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。