当前位置:   article > 正文

sparse transformer 常见稀疏注意力_transformer 稀疏注意力

transformer 稀疏注意力

参考:
https://zhuanlan.zhihu.com/p/259591644

主要就是降低transformer自注意力模块的复杂度
复杂度主要就是 Q · K^T影响的,稀疏注意力就是在Q点乘K的转置这模块做文章
在这里插入图片描述

下列式一些sparse transformer稀疏注意力方法

a、transformer原始的 , Q · K^T,其中 K^T 表示 K 的转置
b、每个token与前后三个做自注意力计算
c、膨胀注意力(dilated attention):每个token与前后三个做自注意力计算,但这三个有间隔,就是比如第一个token看右面3,5,7
d、全局token是第一二个token看所有的token,3及后面的token只看· K^T 矩阵的1、2token;sliding划窗见b
在这里插入图片描述

a、全局token是第一二个token看所有的token,3及后面的token只看· K^T 矩阵的1、2token
b、划窗
c、见上面c
d、random
e、Q矩阵的123token 看 · K^T123token;Q矩阵的456token 看 · K^T456token 。。。。
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/423437
推荐阅读
相关标签
  

闽ICP备14008679号