当前位置:   article > 正文

深度学习基础理论 - 1)batch_sizes和epoch参数差异及关系_batchsize和epoch关系

batchsize和epoch关系

一、理论差异

batch_sizes 代表1次进行计算梯度误差delta的样本数目,计算之后再进行参数迭代。

epoch 完成了所有的训练输入的小批量训练,称为完成了一次训练迭代。然后就会开始一次新的迭代。

如下,273 指的是一次迭代用到的batch_sizes 的个数,这里样本总数为 17469 ,batch_sizes 设定的为 64,所以17469/64= 272.9 ,即 273。可以看到以下是进行了50次epoch,每次都会对于所有训练输入进行一轮批量训练。

 

二、实现情况

keras 涉及的batch_sizes 的数据处理:由于直接model.fit输入全量数据,可能会有内存不支持的情况。所以,这里需要事先进行数据的batch_size的处理,具体应用tensorflow的Sequence函数。

可参考链接:tensorflow.keras.utils.Sequence的使用_会飞de鱼~的博客-CSDN博客

可参考代码:

  1. from tensorflow.keras.utils import Sequence
  2. import numpy as np
  3. class DataGenerator(Sequence):
  4. def
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/156715
推荐阅读
相关标签
  

闽ICP备14008679号