赞
踩
参考:
https://blog.csdn.net/qq_37541097/article/details/118242600
目录:
建议阅读时间:10min
ViT是发表在ICLR2021上的一篇文章,通过将图片分割成一个一个小patch而将Transformer引入了CV。这个ViT的模型可以用下面一张图表示,模型经历的步骤如下:
根据上面的步骤,我们将整个ViT分为如下几个部分理解:
以输入224x224的图片大小,ViT-B/16为例,我们将图片切割成16x16的大小,最终我们可以得到 224 ∗ 224 16 ∗ 16 = 196 p i e c e s \frac{224*224}{16*16}=196pieces 16∗16224∗224=196pieces的patches,即将1张[224, 224, 3]的图片 ->(切割成) 196张[16, 16, 3]的patches。
接着我们将196张[16, 16, 3]patches经过Linear Projection of Flattened Patches
转成tokens,即将196个patches的Height,Width和Channel进行展平处理(
H
∗
W
∗
c
h
a
n
n
e
l
H*W*channel
H∗W∗channel)变成196个[768]的tokens。最终变成[196, 768]
的tokens输入,其中196是num_query=num_token,768是query_dimension=token_dimension=词向量长度。
同时我们要增加一个类别信息,类别信息的shape为[1, 768]
,我们将类别信息和token进行(concat)拼接,Cat([1, 768], [196, 768]) -> [197, 768]
。Q:不是很理解为什么不是196个类别,768长度的词向量变成769的词向量,因为类别应该算是一个特征,而不是样本吧?猜测:可能是因为一整个图片才算一个类别,我们只是输入了一个值?
最后我们需要增加Position Embedding类别信息,这里直接进行(add)加操作,Add([197, 768], [197, 768]) -> [197, 768]
这是一个需要训练的操作。通过增加增加Position Embedding,我们的准确率增加了3个点,如下图2。
至此我们得到了[197, 768]
的词向量。
单单使用摞了L层的Transformer Encoder。参考https://blog.csdn.net/qq_43369406/article/details/129306734
。
我们输入[197, 768]
的词向量得到[197, 768]
的词向量。
Q: L层是什么意思?A:是串行操作,如下图所示:
从[197, 768]
中取出添加的类别词向量[1, 768]
,以ViT-B/16为例,在MLP Head中经过一个Linear层,再经过一个softmax层得到最终的类别。
代码实现的时候:
[224, 224, 3]
的图片卷积成[14, 14, 768]
的patch,再经过展平,变成[196, 768]
的token。最终在ViT中采用了3中不同的网络结构,得到的模型效果如下:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。