当前位置:   article > 正文

tf.keras.optimizers.Adam 优化器 示例

tf.keras.optimizers.adam

tf.keras.optimizers.Adam 优化器 示例

tf.keras.optimizers.Adam(
    learning_rate=0.001,  # 学习率 默认 0.001
    beta_1=0.9,  # 一阶矩估计的指数衰减率。 默认 0.9
    beta_2=0.999,  # 二阶矩估计的指数衰减率。 默认 0.999
    epsilon=1e-07,  # 模糊因子。如果None,默认为K.epsilon()。该参数是非常小的数,其为了防止在实现中除以零。默认 1e-07
    amsgrad=False,  # 布尔。是否应用该算法的AMSGrad变体。默认 False
    name='Adam',  # 应用渐变时创建的操作的可选名称。
    **kwargs)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/552313
推荐阅读
相关标签
  

闽ICP备14008679号