赞
踩
有的时候总是会弄错batchsize、iteration、epoch之间的关系,现在终于明白了。
1、batchsize是批次大小,假如取batchsize=24,则表示每次训练时在训练集中取24个训练样本进行训练。
2、iteration是迭代次数,1个iteration就等于一次使用24(batchsize大小)个样本进行训练。
3、epoch,1个epoch就等于一次使用训练集中全部样本训练一次。
如果训练样本为1000,batchsize=24,则训练一个完整的样本集需要1个epoch,需要迭代50(1000/24=50)次。
如有疑问,欢迎大家一起讨论
主要是记录一下自己平时遇到的问题,和大家分享一下
如有侵犯,请联系我
点个赞支持一下吧
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。