当前位置:   article > 正文

batchsize、iteration、epoch之间的关系_batchsize和epoch关系

batchsize和epoch关系

batchsize、iteration、epoch之间的关系

有的时候总是会弄错batchsize、iteration、epoch之间的关系,现在终于明白了。
1、batchsize是批次大小,假如取batchsize=24,则表示每次训练时在训练集中取24个训练样本进行训练。
2、iteration是迭代次数,1个iteration就等于一次使用24(batchsize大小)个样本进行训练。
3、epoch,1个epoch就等于一次使用训练集中全部样本训练一次。
如果训练样本为1000,batchsize=24,则训练一个完整的样本集需要1个epoch,需要迭代50(1000/24=50)次。

如有疑问,欢迎大家一起讨论

主要是记录一下自己平时遇到的问题,和大家分享一下
如有侵犯,请联系我

点个赞支持一下吧

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/156728
推荐阅读
相关标签
  

闽ICP备14008679号