赞
踩
基于上述的观察,作者设计了一个富含附加操作的搜索空间,并应用训练感知NAS算法和扩展策略来联合优化模型的精度、训练速度和参数的大小。
基于上面的见解,作者提出了一种改进的渐进学习方法:在训练早期,用小的图像尺寸和弱正则化训练网络,然后逐渐增加图像尺寸并添加更强的正则化。基于渐进的方式调整图像的大小,但通过动态调整正则化,作者的方法可以加快训练速度的同时不丢失精度。
EfficientNet是一系列针对FLOPs和参数效率进行优化的模型。它利用NAS搜索了baseline network(后面简称基线模型):EfficientNet-B0,该基线模型在精度和FLOPs方面具有很好的权衡,然后通过复合扩展策略放大基线模型来获得模型B1-B7。之后的发展声称在训练和推理速度方面取得了巨大的进步,但是这些之后提出的模型在参数和FLOPs方面通常比EfficientNets差,见下表。本论文中,作者的目的是在保持参数效率的同时提高训练速度。
在上面已经提过了,EfficientNets的训练瓶颈共有三点。
基于上面的观察,作者在训练期间自适应地调整正则化和图像大小,从而改进了渐进式学习方法
本节主要介绍实验的结果,而一些实验中的具体设置,读者们可以参考原论文学习。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。