当前位置:   article > 正文

tensorflow--GPU_tensorflow-gpu是什么

tensorflow-gpu是什么

一、查看 tensorflow 是否使用了GPU进行计算

import tensorflow as tf
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
  • 1

运行程序,日志若包含 gpu 信息,则使用了 gpu。

二、使用指定GPU

方式一:代码:

import os
os.environ[‘CUDA_VISIBLE_DEVICES’]=1
  • 1

方式二、命令行:

CUDA_VISIBLE_DEVICES=’1’ python code.py
  • 1

这个命令是指定程序用哪个 GPU 跑 tensorflow,不加的话默认都是显卡 0,然后可能就爆了。我们有 n 张显卡,可以根据需要指定不同的显卡跑程序的

三、设置GPU使用比例
tf 默认一个程序会占用一整个gpu,在程序里手动设置GPU使用比例这样可以一个GPU可以跑多个程序

config = tf.ConfigProto() 
config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用GPU90%的显存 
session = tf.Session(config=config)
  • 1
  • 2
  • 3

三、GPU内存分配

session_conf = tf.ConfigProto()
session_conf.gpu_options.allow_growth = True  # 设置allow_grouth,根据运行时的需要来分配GPU内存
sess = tf.Session(config=session_conf)  
  • 1
  • 2

四、查看GPU memory的使用情況
在终端输入命令 nvidia-smi
在这里插入图片描述
GPU:GPU 编号;
Name:GPU 型号;
Persistence-M:持续模式的状态。持续模式虽然耗能大,但是在新的GPU应用启动时,花费的时间更少,这里显示的是off的状态;
Fan:风扇转速,从0到100%之间变动;
Temp:温度,单位是摄氏度;
Perf:性能状态,从 P0 到 P12,P0 表示最大性能,P12 表示状态最小性能(即 GPU 未工作时为 P0,达到最大工作限度时为 P12)。
Pwr:Usage/Cap:能耗;
Memory Usage:显存使用率;
Bus-Id:涉及GPU总线的东西,domain 本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】

推荐阅读
相关标签