赞
踩
老师讲得真的很好,一听就懂了
李宏毅2020机器学习深度学习(完整版)国语_哔哩哔哩_bilibili
Transformer是2017年Google发表的Attention Is All You Need,下载地址:https://arxiv.org/pdf/1706.03762.pdf
Transformer遵循编码器-解码器结构,编码器和解码器都分别如下图的左右两部分所示:
编码器:编码器由N = 6个相同的层组成。每一层有两个子层。第一种是多头自注意机构,第二种是简单的位置全连接网络。作者对两个子层使用残差连接,并加入层归一化(LN)。也就是说,每个子层的输出是:LayerNorm(x+ Sublayer(x)),其中Sublayer(x)是子层本身实现的函数。
解码器:解码器也由N = 6个相同层组成。除每个编码器层中的两个子层外,解码器还插入第三个子层,该子层对编码器的输出执行多头注意。与编码器类似,作者对每个子层使用残差连接,然后进行层归一化(LN)。并且在解码器中的自注意子层中加入mask并将输出被位置偏移,以确保位置 i 的预测只依赖于小于 i 位置的已知输出。
Transformer在以下三处使用多头注意力:
注意函数可以描述为将查询键和一组键值对映射到输出,其中查询Q、键K、值V和输出都是向量。输出是作为值V的加权和计算的,其中分配给每个值V的权重是通过查询Q与相应键K的兼容性函数计算的。不懂的话建议大家看篇首提到的李宏毅老师的视频。
首先,拿每个query q去对每个key k做attention。下面3页PPT讲的是:计算查询Q与所有键K的点积,每个键除以 (d是维度),并应用softmax函数处理,最后与值V的权重相乘。我们计算输出矩阵为:
同理可求b2...
整体计算流程如下所示:
反正就是一串矩阵乘法,用GPU可以加速。
不同head可能关注的点不一样。
参考链接:
Transformer论文解读一(Transformer)_蓝鲸鱼BlueWhale的博客-CSDN博客_transformer论文
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。