当前位置:   article > 正文

tensorflow如何指定gpu运行还是cpu运行

tensorflow如何指定gpu运行还是cpu运行

tf里面有个函数tf.device()主要用来指定运行设备的。
在TensorFlow中,如果你安装的TensorFlow版本是GPU版本的,并且你的电脑配置符合gpu运行的条件,那么系统就默认使用gpu进行训练,不用单独去指明用GPU。

但是有时候我们在配置的GPU环境下想要去利用cpu去处理某个模块的运算,又该如何去做呢?

这个时候就可以用到tf.device()来对运行设备进行指定,例如:

如果需要切换成CPU运算,可以调用tf.device(device_name)函数,其中device_name格式如/cpu:0其中的0表示设备号,TF不区分CPU的设备号,设置为0即可。GPU区分设备号/gpu:0和/gpu:1表示两张不同的显卡。

在一些情况下,我们即使是在GPU下跑模型,也会将部分Tensor储存在内存里,因为这个Tensor可能太大了,显存不够放,相比于显存,内存一般大多了,于是这个时候就常常人为指定为CPU设备。这种形式我们在一些代码中能见到。如:

  1. with tf.device('/cpu:0'):
  2. tf.app.run()

这句话就是实现我在运行下面函数的时候使用的cpu去运算。tf.app.run() 是函数入口,类似于c++中的main()

run() 函数的运作计制是:先加载flags的参数项,然后执行main() 函数,其中参数使用tf.app.flags.FLAGS定义。

  1. import tensorflow as tf
  2. # 定义参数
  3. # 第一个是参数名称, 第二个参数是默认值, 第三个是参数描述
  4. tf.app.flags.DEFINE_string('string', 'myname', 'The type of myname is string')
  5. tf.app.flags.DEFINE_integer('image_size', 32, 'The size of image')
  6. FLAGS = tf.app.flags.FlAGS
  7. # 定义主函数
  8. # 需要传递参数
  9. def main(argv):
  10. print('string: ', FLAGS.string)
  11. print('image_size: ' , FLAGS.image_size)
  12. if __name__ = '__main__':
  13. tf.app.run()

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号