当前位置:   article > 正文

【轻量化网络系列(7)】EfficientNetV2论文超详细解读(翻译 +学习笔记+代码实现)

efficientnetv2

前言

今天我们要学习的是EfficientNetV2 ,该网络主要使用训练感知神经结构搜索缩放的组合;在EfficientNetV1的基础上,引入了Fused-MBConv到搜索空间中;引入渐进式学习策略自适应正则强度调整机制使得训练更快;进一步关注模型的推理速度训练速度

学习资料:

前期回顾: 

【轻量化网络系列(1)】MobileNetV1论文超详细解读(翻译 +学习笔记+代码实现)

【轻量化网络系列(2)】MobileNetV2论文超详细解读(翻译 +学习笔记+代码实现)

【轻量化网络系列(3)】MobileNetV3论文超详细解读(翻译 +学习笔记+代码实现)

【轻量化网络系列(4)】ShuffleNetV1论文超详细解读(翻译 +学习笔记+代码实现)

【轻量化网络系列(5)】ShuffleNetV2论文超详细解读(翻译 +学习笔记+代码实现)


目录

前言

Abstract—摘要

 一、Introduction—简介

二、Related work—相关工作

三、EfficientNetV2 Architecture Design—高效EfficientNetV2架构设计

3.1 Review of EfficientNet—回顾EfficientNet

3.2 Understanding Training Efficiency—了解训练效率

Training with very large image sizes is slow—使用非常大的图像大小进行训练的速度很慢

Depthwise convolutions are slow in early layers but ef- fective in later stages—深度卷积在早期阶段较慢,但在后期阶段有效

Equally scaling up every stage is sub-optimal—对每个阶段做相同的扩展是次优的

3.3 Training-Aware NAS and Scaling—训练感知NAS和缩放

NAS Search—NAS搜索

EfficientNetV2 Architecture—EfficientNetV2 体系结构

EfficientNetV2 Scaling—EfficientNetV2缩放

Training Speed Comparison—训练速度比较

四、Progressive Learning—渐进式学习

4.1 Motivation—动机

4.2 Progressive Learning with adaptive Regularization—自适应正则化的渐进学习

五、Main Results—主要结果

5.1 ImageNet ILSVRC2012

5.2 ImageNet21k

5.3 Transfer Learning Datasets—迁移学习数据集

六、Ablation Studies—消融研究

6.1 Comparison to EfficientNet—与EfficientNet的比较

6.2 Progressive Learning for Different Networks—针对不同网络的渐进式学习

6.3 Importance of Adaptive Regularization—自适应正则化的重要性

七、Conclusion—结论

推荐阅读
相关标签