赞
踩
inception系列的开山之作,有网络结构设计的初期思考。
1.生物中神经网络是稀疏的.
2Arora的实验说明了,优化大规模的稀疏神经网络时,可以通过分析激活值的统计特性和聚类相关性高的神经元来逐层构建一个最优网络。(block设计的来源)。
3.Hebbian 原理:neurons that fire together,wire together(说明神经元相关性)
稀疏模型 将大量的冗余变量去除,只保留与响应变量最相关的解释变量,简化了模型的同时却保留了数据集中最重要的信息,有效地解决了高维数据集建模中的诸多问题。稀疏模型具有更好的解释性,便于数据可视化、减少计算量和传输存储。1996年Tibshirani把岭回归估计的L2范数罚正则化项替换为L1范数罚正则化项得到了Lasso(Least Absolute Shrinkage and Selection Operator, Lasso)。L1范数罚具有产生稀疏模型的能力,使用L1范数罚作为正则化项的Lasso具有变量选择功能和变量空间降维功能。实际上在Lasso之前已有能够产生稀疏解的非负绞刑估计 (nonnegative garrote estimator)和桥回归(bridge regression)模型被提出,但由于缺少高效的求解算法因而没有引起足够的重视,而自从Lasso这种稀疏模型以及可对其有效求解的LAR算法(Least Angle Regression, LAR)被提出后,稀疏模型才得到了广泛深入的研究,并在机器学习、数理统计和生物信息学等领域逐渐流行起来。
第一作者Christian Szegedy,评估一个复杂的网络拓扑结构构建算法的假设输出,该网络试图逼近Arora提出的稀疏结构。
最初结构只是猜想,然而通过两轮的迭代后,获得了不错的结果。(实验证明有效)
说明:1.1x1conv,用于对相关性高的神经元聚类 2.为了避免patch alignment问题,增加3X3,5X5(大感受野的聚类,这么设计更多的考虑是方便还不是必要性)3.Pool是cnn中有效的操作,因此也加入
作者说明,对一个压缩且密集的特征信息进行建模是很难的,所以只在必要时才压缩信号
1.Block设计。2.Gap代替全连接。3.添加dropout(0.7)。4.辅助损失.(权重0.3,在inception 4a和4d的输出接,作用a增强底层特征差异性b增强梯度信号c提高正则化)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。