赞
踩
在模型训练的过程中,运行模型对全部数据完成一次前向传播和反向传播的完整过程叫做一个epoch
在梯度下降的模型训练的过程中,神经网络逐渐从不拟合状态到优化拟合状态,达到最优状态之后会进入过拟合状态。因此epoch并非越大越好,一般是指在50到200之间。数据越多样,相应epoch就越大。
当我们处理较大的数据集时,一次向网络喂入全部数据得不到很好的训练效果。通常我们将整个样本的数量分成多个批次batch,每个batch中样本的个数叫做样本大小batchsize
batchsize是重要的神经网络超参数之一,一般设置在50-400左右较为适宜
Iterations= 样本总数量/批次大小,即为完成一次epoch需要训练的batch个数
相较于前两个参数,iteration显得并不是那么重要,在数据集较小的模型训练中,iterations为1也是未尝不可的事情。
如有疑议,欢迎在评论区探讨关于神经网络超参数重要性及设置的相关问题
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。