当前位置:   article > 正文

机器学习中epoch和batch_size分别代表什么?_epoch size

epoch size

首先,我们知道要划分数据集,通常分为训练集,验证集,测试集。

在训练模型的时候,从训练集中一个一个取出来训练效率太慢,可以一次取一批来进行训练,batch_size就是这一批数据的数量设置。

1个epoch就是把训练集里面的所有数据都训练一遍。

模型的迭代次数就是训练集所有数据量除以batch_size,比如有100个数据,batch_size=10,那么迭代次数就是100÷10=10(次)。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/156733
推荐阅读
相关标签
  

闽ICP备14008679号