当前位置:   article > 正文

2020年如何设计神经网络_2020 神经网络分类模型

2020 神经网络分类模型

How to Design a Neural Network | 2020 Edition

本文摘录并翻译自油管Leo Isikdogan
本文所涉及的paper

  1. ShuffleNetV2: Practical Guidelines for Efficient CNN Architecture Design

  2. MobileNetV2: Inverted Residuals and Linear Bottlenecks

  3. Learning Transferable Architectures for Scalable Image Recognition (NASNet)

  4. Attention Is All You Need (the Transformer)

  5. Squeeze-and-Excitation Networks

  6. Searching for MobileNetV3

Tips

  1. 不需要你花费太多时间设计神经网络
  2. 选择流行的网络
  3. 特殊问题特殊处理

Efficient Model

尽管NAS现在很火,但手工设计网络还是很有必要,尤其设计轻量化模型时。ShuffleNet V2提出通过NAS搜索出的结构虽然参数量很少但比手工设计的网络慢很多。正如MoblieNet V2比NASNet-A快很多。
在这里插入图片描述
因为模型的速度不仅仅依赖于浮点运算量还依赖于内存的读写效率和平台特性。
在这里插入图片描述

ShuffleNet v2在论文中给了我们一些方法去提高模型的推断速度。
在这里插入图片描述
通过观察他们发现相等的channels能降低内存读写的开销。所以不因频繁的改变channels的数量。像SqueezeNet和MobileNet V2就违反了这一原则。但是也不意味着不使用他们。过少的channels也一样影响训练的稳定性,卷积核数量少于8个时容易引起部分神经元失活。
在这里插入图片描述

另外一个就是避免使用太多的网络分支。在这里插入图片描述
过多的分支会大大降低数据的并行性,这样对GPU十分不友好。NAS出来的模型往往仅以参数量和准确率为标准,常有过多分支从而影响推断速度。

点卷积的操作的开销也不能够忽略。
在这里插入图片描述

Attention Mechanisms

原本是nlp常用的方法,但在cv中也一样有效。
在这里插入图片描述

例如我们在朗读以下句子时,我们会将重心放在this video和it上。
这便是注意力机制,告诉自己哪些词语在语境中是重要的。
在这里插入图片描述
在图像中,注意力机制能告诉模型,哪些位置或者哪些特征需要格外注意。
在这里插入图片描述

SE模块就实现了类似的机制。
在这里插入图片描述
MobileNet V3也使用了SE模块。
在这里插入图片描述
attention机制在图片识别,场景识别,检测中都非常有效。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/634850
推荐阅读
相关标签
  

闽ICP备14008679号