赞
踩
Although increased model size and computational cost tend to translate to immediate quality gains for most tasks (as long as enough labeled data is provided for training), computational efficiency and low parameter count are still enabling factors for various use cases such as mobile vision and big-data scenarios.
从论文中,可以看出作者主要考虑的是虽然网络的深度增加给很多任务带来了很多好处,但是模型的大小和计算效率也很关键,尤其是对于一些移动设备或者大数据场景,就显得很有必要了。
作者指出,尽管VGGNet在特征提取方面具有非常简洁的优势,但是也消耗了大量的计算资源,另一方面,GoogLeNet(Inception-V1)在内存和计算复杂度方面做了限制下,也能达到很好的效果。
3x3的卷积相对5x5的卷积能减少更多的参数。因此可以利用两个3x3的小卷积代替一个5x5的卷积核,表达能力没有减弱,但参数却减少很多(
遵循上面的原则,对Inception-v进行了改进
原始的Inception模块
将5x5的卷积改为2个3x3的卷积,得到
进一步,作者深入讨论了将NxN的卷积,分解成1xN和Nx1的卷积叠加
根据这种规则提出了如下结构:
这种做法在GoogLeNet上就已经使用,认为这种辅助分类器,在网络训练过程中扮演着非常重要的角色,能有效的将梯度传播到底层。但是作者发现辅助分类器并没有提升收敛速度,但是却起到了正则化的作用:
通常,卷积网络会利用pooling操作来降低特征图的大小。为了避免出现bottleneck现象,在应用Max Pooling或者average pooling之前,可以适当的扩大特征层的维度。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。