赞
踩
学完吴恩达老师的深度学习后,对深度学习也有有了较为基础而全面的认识,但是还是没有形成肌肉记忆,有些时候反应不过来,索性开一个专题将自己不太熟悉的部分重新再梳理一遍。整理一些比较容易搞混的地方的,如有疏漏或者错误也欢迎大家批评指正,我们的目标是一起学习进步。
(第l层)
传播过程:A[0](即X) —> Z[1] —>A[1] —> Z[2] —>A[2]······
第l层
使用快速的优化算法,能够大大提高你和团队的效率。优化算法就是不同的梯度下降法,目的都是通过多次迭代优化参数,找到对应的最优的损失函数。
按照每次更新参数所使用的训练数据集范围分为:
优化的梯度下降法(几乎是基于mini-batch梯度下降法):
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。