赞
踩
今天我们要学习的是EfficientNetV2 ,该网络主要使用训练感知神经结构搜索和缩放的组合;在EfficientNetV1的基础上,引入了Fused-MBConv到搜索空间中;引入渐进式学习策略、自适应正则强度调整机制使得训练更快;进一步关注模型的推理速度与训练速度。
学习资料:
- 论文题目:《EfficientNetV2: Smaller Models and Faster Training》(《EfficientNetV2:更小的模型和更快的训练》)
- 原文地址:EfficientNetV2: Smaller Models and Faster Training
- 论文提供代码地址:https://github.com/google/automl/tree/master/efficientnetv2
前期回顾:
【轻量化网络系列(1)】MobileNetV1论文超详细解读(翻译 +学习笔记+代码实现)
【轻量化网络系列(2)】MobileNetV2论文超详细解读(翻译 +学习笔记+代码实现)
【轻量化网络系列(3)】MobileNetV3论文超详细解读(翻译 +学习笔记+代码实现)
【轻量化网络系列(4)】ShuffleNetV1论文超详细解读(翻译 +学习笔记+代码实现)
【轻量化网络系列(5)】ShuffleNetV2论文超详细解读(翻译 +学习笔记+代码实现)
目录
三、EfficientNetV2 Architecture Design—高效EfficientNetV2架构设计
3.1 Review of EfficientNet—回顾EfficientNet
3.2 Understanding Training Efficiency—了解训练效率
Training with very large image sizes is slow—使用非常大的图像大小进行训练的速度很慢
Depthwise convolutions are slow in early layers but ef- fective in later stages—深度卷积在早期阶段较慢,但在后期阶段有效
Equally scaling up every stage is sub-optimal—对每个阶段做相同的扩展是次优的
3.3 Training-Aware NAS and Scaling—训练感知NAS和缩放
EfficientNetV2 Architecture—EfficientNetV2 体系结构
EfficientNetV2 Scaling—EfficientNetV2缩放
Training Speed Comparison—训练速度比较
4.2 Progressive Learning with adaptive Regularization—自适应正则化的渐进学习
5.3 Transfer Learning Datasets—迁移学习数据集
6.1 Comparison to EfficientNet—与EfficientNet的比较
6.2 Progressive Learning for Different Networks—针对不同网络的渐进式学习
6.3 Importance of Adaptive Regularization—自适应正则化的重要性
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。