当前位置:   article > 正文

Vision Transformer里的MLP Head里的Pre-Logits层_pre_logits

pre_logits

  1. # Representation layer
  2. if representation_size and not distilled:
  3. self.has_logits = True
  4. self.num_features = representation_size
  5. self.pre_logits = nn.Sequential(OrderedDict([
  6. ("fc", nn.Linear(embed_dim, representation_size)),
  7. ("act", nn.Tanh())
  8. ]))
  9. else:
  10. self.has_logits = False
  11. self.pre_logits = nn.Identity()

nn.Sequential:一个有序的容器,神经网络模块将按照在传入构造器的顺序依次被添加到计算图中执行,同时以神经网络模块为元素的有序字典也可以作为传入参数。

OrderedDictpython中字典dict是利用hash存储,因为各元素之间没有顺序。OrderedDict即按照有序插入顺序存储的有序字典。除此之外还可根据key,val进行排序。

nn.tanh():双曲正切的激活函数

公式:

tanh=\frac{sinhx}{coshx}=\frac{e^{x}-e^{x}}{e^{x}+e^{x}}

 函数:y = tanh x;

图像:

nn.Identity: 恒等函数,即f(x) = x,相当于分类得到分类之前的特征。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/92998
推荐阅读
相关标签
  

闽ICP备14008679号