赞
踩
目录
如果你发现你的 NVIDIA GPU 无法运行 GPU 代码,nvidia-smi 可以看到有没有GPU,会很方便查看GPU使用情况,可以查看显卡的显存利用率。
!nvidia-smi
图中可以看到,一共有4块GPU,以及各自的内存情况。另外也可以看到cuda的版本是10.1,我们之后会根据cuda的版本来装对应的版本框架。
图的最下面,可以看到是谁在用GPU。
(1)一般默认是使用cpu来训练模型,
- import torch
- from torch import nn
-
- torch.device('cpu')
(2)通过torch.cuda.device('cuda')来指定GPU,即使没有显式指定a使用gpu 0,但是pytorch默认还是将tensor分配在gpu 0上。
torch.cuda.device('cuda')
(3)torch.device('cuda') 与 torch.device('cuda:0')在进行计算时,对于单卡计算机而言,没有任何区别,都是唯一的那一张GPU。
对于多卡GPU,如果想要访问第一个GPU的话,需要torch.cuda.device('cuda:1')。
torch.cuda.device('cuda:1')
(4)查看是否有可用GPU:,
torch.cuda.is_available()
查询可用的GPU数量,
print(torch.cuda.device_count())
查看当前使用的GPU序号
torch.cuda.current_device()
- def try_gpu(i=0):
- """如果存在,则返回gpu(i),否则返回gpu"""
- if torch.cuda.device_count() >= i + 1:
- return torch.device(f'cuda:{i}')
- return torch.device('cpu')
-
- def try_all_gpus():
- """返回所有可用的GPU,如果没有GPU,则返回[cpu(),]。"""
- devices = [torch.device(f'cuda:{i}') for i in range(torch.cuda.device_count())]
- return devices if devices else [torch.device('cpu')]
-
- print(try_gpu()) # 返回第一个GPU
- print(try_gpu(10)) # 没有10个GPU,所以返回的是cpu
- print(try_all_gpus()) # 返回所有可用的GPU
(1)在GPU上默认创建tensor,然后我们查询一下张量所在设备,通过.device查询, 默认在CPU内存上。
- # 查询张量所在设备
- X = torch.tensor([1,2,3])
- print(X.device) # 默认在CPU内存上
(2)在创建tensor的时候,告诉张量所在设备为cpu,
- # 存储在GPU上
- X = torch.ones(2,3,device=try_gpu())
- X
可以看到结果中,“device=cuda:0”表示在GPU0上创建了一个随机张量。
(3)同理,在创建tensor的时候,在第二个GPU,即GPU1上,创建了一个随机张量。
- # 在第二个GPU上创建一个随即张量
- Y = torch.rand(2,3,device=try_gpu(1))
- print(Y.device) # 没有1号GPU,则放到CPU上
- Y
(4)做计算X+Y,我们需要决定在哪里执行这个操作?
计算X+Y会发生在X和Y对应的device上面,所以X+Y必须X和Y都在同一个GPU上。
另外就是如果“Z = X.cuda(0)”,Z已经在GPU0上的话,那么就不会任何操作,“Z.cuda(0) is Z”就会返回True,不会自己所在的gpu把Z的值又复制到本身自己所在的gpu。
- # 要计算X+Y,我们需要决定在哪里执行这个操作
- Z = X.cuda(0) # 创建z,把x的值复制到GPU0上的z,因为X+Y必须X和Y都在同一个GPU上
- print(X)
- print(Z)
这样之后,现在数据Y和Z都在同一个GPU上,我们可以将它们相加,Y和Z的加法就会在这个GPU上完成。
- Y = torch.rand(2,3,device=try_gpu(0))
- Y + Z
- Z.cuda(0) is Z # 如果变量在0号GPU时,就返回True
可以看到,结果也会也在这个GPU上。
在GPU直接挪数据,特别是GPU到CPU挪数据是很慢的。
比如,如果我的一个网络,基本上所有的层都已经在cpu创建好了,一不小心把某一层的网络创建在了gpu上,那么就需要来来回回挪东西,很麻烦, 而且也很容易造成性能问题。并且很难debug。
(1)通常在cpu上创建神经网络时已经把权重初始化好了,然后可以调用“to()”把所有权重参数在0号GPU上拷贝一份,
- # 神经网络与GPU
- net = nn.Sequential(nn.Linear(3,1)) # 创建神经网络时已经把权重初始化好了
- net = net.to(device=try_gpu()) # 把所有参数在0号GPU上拷贝一份
- X = torch.ones(2,3,device=try_gpu()) # X 在0号GPU上
- net(X) # 所以前项运算所有元素都在0号GPU上运行
(2)确认模型参数存储在同一个GPU上,
- # 确认模型参数存储在同一个GPU上
- net[0].weight.data.device
通常来说,一般在cpu上创建神经网络时已经把权重初始化好了,然后把所有权重参数和输入在GPU上拷贝一份,训练模型的时候,当然forward函数也会在这个GPU上运行。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。