当前位置:   article > 正文

Self-Attention详解

self-attention

Sequence数据的处理

Self-Attention是用来处理Sequence数据的。
输入是Vector Set(Sequence)。
比如:

  1. 输入是一段文字:每个字会对应一个vector。(编码方式:①one-hot编码;②word embedding)
  2. 输入是一段声音信号:设置window(一般window的大小是25ms),每个window中的声音信号作为一个vector。(例:如果window滑动的step=10ms,window大小是25ms,那么1s的声音信号可以转化为100个vector的集合)
  3. 输入是一个Graph:每个node是一个vector。(向量是node的特征)

输出是什么?

  1. 每个输入的vector对应一个label:词性标注任务
  2. 整个sequence输入一个label:情感分析、语者辨认
  3. 机器决定输出的label的个数(Seq2Seq任务):翻译

Sequence Labeling(输入和输出的大小一样)

希望网络可以考虑整个sequence的信息。

首先想到全连接网络,但是每个输入的sequence的长度是不确定的,因此如果想要使用全连接网路哈哈哈没法确定神经元的个数~~

所以,使用Self-Attention:可以实现每个输出都会考虑整个Sequence的信息。
在这里插入图片描述
如图所示,一个Self-Attention块的输入是input sequence或者是上一层的输出。
每个输出b都会考虑整个输入序列的信息。

Self-Attention内部机理

如何求解b?

1、首先求解输入之间的相关性权重α。
在这里插入图片描述
求解α的方法:
(1)Dot-product
(2)Additive
在这里插入图片描述
Self-Attention中的α的求解方法:
在这里插入图片描述
然后经过一个激活层,此处是Softmax也可以是其他的,比如ReLU。
在这里插入图片描述
在这里插入图片描述

使用矩阵运算总结Self-Attention的求解机理:
在这里插入图片描述

Multi-head Self-Attention

实现不同类型的relevance。
在这里插入图片描述
在这里插入图片描述

Positional Encoding

前面讲的Self-Attention中没有涉及位置信息,因此考虑加入位置编码。
在这里插入图片描述
上述的positional encoding是hand-crafted的。
也有其他的positional encoding方法此处就不列举了。

Self-Attention for Image

可以将image看成一个w*h的sequence,每个像素的vector中包含的是像素的RGB三通道值。
或者将image分块,每块是一个输入vector。
在这里插入图片描述

Self-Attention v.s. CNN

其实CNN可以看成是Self-Attention中的一种情况。

对于Self-Attention其实是针对一个query像素点求解其与其他所有像素点的k值(即relevance)通过k值得到其他像素点对该query像素点的相关性,

而CNN是使用卷积核划定了相关像素点的范围。
在这里插入图片描述
Self-Attention模型相比于CNN有更高的灵活性因此训练需要更多的数据。

Self-Attention v.s. RNN

RNN也是一种处理序列数据的模型。

  • 相比于Self-Attention,RNN也可以通过循环RNN实现每个输出与所有输入的相关性。
    但是单向的RNN只能实现,后面的输出与其前的输入是相关的。
  • 并且RNN后面的输出对于距离较远的输入的依赖关系比较难实现,需要一直将前面的所有输入保存在内存中,而Self-Attention只需要在内存中保存计算出的Q、K、V矩阵即可。
  • RNN是一个串行的流程,Self-Attention是并行处理的。
    在这里插入图片描述

总结

Self-Attention可以很好地处理序列数据,可以实现序列数据的全依赖。
但是Self-Attention的运算量很大!需要更多的数据训练。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/708231
推荐阅读
相关标签
  

闽ICP备14008679号