赞
踩
目录
传统的机器学习会小心设计目标函数和约束,以确保优化问题是凸的,从而避免一般优化问题的复杂度。在训练神经网络时,首先,会遇到大量的非凸优化情况;其次,由于巨大的数据量导致训练速度很慢,无法使深度学习发挥最大效果。本文总结了一些常见的梯度下降优化算法能够帮助我们快速训练模型,提高计算效率。
解决办法有很多种,可以从参数的初始化策略、获取梯度的训练集大小、学习率以及梯度下降算法等角度入手,本文主要针对梯度下降算法展开介绍
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/886623
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。