赞
踩
Transformer是谷歌在2017年提出的著名算法,源自于论文《Attention Is All You Need》。
Transformer是一个基于Encoder-Decoder框架的模型,它的主要结构分为四个部分。分别是输入部分(Embedding)、Encoder、Decoder和输出部分(线性Linear层和Softmax层)。
其中最重要的是第2和第3部分,即Encoder和Decoder。
其实就是,经过向量化和加法的操作,实现了单词的拆分与单词的位置信息的融入,输出的张量带有了位置信息。
Transformer的输入主要包括两部分:
其实就是,经过一系列的矩阵操作,实现了单词间的权重计算,再输出的张量就带有了其他单词的上下文信息。这里输出的矩阵相当于字典Key和Value。
主要组成部分:(n个)
其实就是,通过单词间的权重计算,得到带有了位置信息和上下文信息的向量,协同Encoder得到的字典矩阵,经过一系列的矩阵操作,输出预测向量。
主要组成部分:(n个)
其实就是,接收Decoder输出的向量,先变成一维向量,然后算出最大概率的单词索引,根据索引输出单词。
主要组成部分:
字典自查表:通过权重标明相互关系
运用像字典的Key 和 Value,像查询的Query,计算输出一个预测结果Z。
多个Self-attention
相当于一件事情找n个人做,保证准确性和稳定性。
不同的注意力权重矩阵QKV,求得n个不同矩阵Z0-Zn,最后取加权平均,输出一个最终的Z 。
(典型代表是Resnet)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。