赞
踩
论文:
视频地址:https://www.bilibili.com/video/BV1X44y1r77r
教程文档:https://zh-v2.d2l.ai/chapter_convolutional-modern/batch-norm.html
当神经网络特别深的时候,数据和损失函数距离就会很远
因此产生了一种想法:训练底部的时候,避免顶部的重新训练→ 学习低层的时候避免变化顶层→(弹幕)这里的变化指的是不同batch的分布变化,而不是指底层参数变化导致顶层参数变化
(或者弹幕里有提出,把底部的学习率放大不就行了???
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。