当前位置:   article > 正文

tensorflow学习笔记(4)-学习率

学习率的图

              tensorflow学习笔记(4)-学习率


首先学习率如下图

所以在实际运用中我们会使用指数衰减的学习率

在tf中有这样一个函数

tf.train.exponential_decay(learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None)

首先看下它的数学表达式:decayed_learing_rate=learing_rate*decay_rate^(gloabl_steps/decay_steps)

  如图

  1. 第一个参数是学习率,
  2. /第二个参数是用来计算训练论数的,每次加一
  3. 第三个参数通常设为常数
  4. 第四个参数是学习率下降的倍率
  5. 第五个参数设为True则指数部分会采用取整的方式
  1. # -*- coding: utf-8 -*-
  2. """
  3. Created on Sun May 27 11:19:46 2018
  4. @author: Administrator
  5. """
  6. #设算是函数loss=(w+1)^2令w初始值为常熟10,反向传播求最优w,求最小loss对应的w的值
  7. #使用指数衰减的学习率,在迭代初期有比较搞的下降速度,可以在比较小的训练轮数下更有收敛度
  8. import tensorflow as tf
  9. LEARNING_RATE_BASE=0.1 #最初学习率
  10. LEARNING_RATE_DECAY=0.99#学习率衰减
  11. LEARNING_RATE_STEP=1#喂入多少伦BATCH_SIZE后更新一次学习率,一般威威总样本数/BATCH_SIZE
  12. #运行了几轮BATCH_SIZE的计数器,初值给0,设为不被训练
  13. global_step=tf.Variable(0,trainable=False)
  14. #定义指数下降学习率
  15. learning_rate=tf.train.exponential_decay(LEARNING_RATE_BASE,global_step,
  16. LEARNING_RATE_STEP,LEARNING_RATE_DECAY
  17. ,staircase=True)
  18. #定义待优化参数,初始值10
  19. w=tf.Variable(tf.constant(5,dtype=tf.float32))
  20. #定义损失函数
  21. loss=tf.square(w+1)
  22. #定义反向传播方法
  23. train_step=tf.train.GradientDescentOptimizer(learning_rate).minimize(
  24. loss,global_step=global_step)
  25. #生成会话,训练40
  26. with tf.Session() as sess:
  27. init_op=tf.global_variables_initializer()
  28. sess.run(init_op)
  29. for i in range(40):
  30. sess.run(train_step)
  31. #更新学习速率
  32. learning_rate_val=sess.run(learning_rate)
  33. global_step_val=sess.run(global_step)
  34. w_val=sess.run(w)
  35. loss_val=sess.run(loss)
  36. print("在%s次训练后 global_step为%f权重为%f,学习率为%f,损失为%f"%(i,
  37. global_step_val,
  38. w_val,learning_rate_val,
  39. loss_val))

运行结果如下,我们也可以改变学习率更改的速率或者其他参数来看对损失率的影响。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/349728
推荐阅读
相关标签
  

闽ICP备14008679号