赞
踩
1 2 3 4 5 6 |
|
1 2 3 4 5 6 7 8 9 |
采用.cuda的形式那么我们必须事先通过系统内部函数
|
1 2 3 4 5 6 7 8 9 10 11 12 13 |
|
补充:Pytorch使用To方法编写代码在不同设备(CUDA/CPU)上兼容(device-agnostic)
以前版本的PyTorch编写device-agnostic代码非常困难(即,在不修改代码的情况下在CUDA可以使用或者只能使用CPU的设备上运行)。
PyTorch 0.4.0通过两种方法使代码兼容变得非常容易:
张量的device属性为所有张量提供了torch.device设备。(注意:get_device仅适用于CUDA张量)
to方法Tensors和Modules可用于容易地将对象移动到不同的设备(代替以前的cpu()或cuda()方法)
我们推荐以下模式:
1 2 3 4 5 6 7 |
|
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。