Skip to content

4.6 GPU 计算

到目前为止,我们一直在使用 CPU 计算。对复杂的神经网络和大规模的数据来说,使用 CPU 来计算可能不够高效。在本节中,我们将介绍如何使用单块 NVIDIA GPU 来计算。所以需要确保已经安装好了 PyTorch GPU 版本。准备工作都完成后,下面就可以通过 nvidia-smi 命令来查看显卡信息了。

python
!nvidia-smi  # 对 Linux/macOS 用户有效

输出:

Sun Mar 17 14:59:57 2019
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 390.48                 Driver Version: 390.48                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 1050    Off  | 00000000:01:00.0 Off |                  N/A |
| 20%   36C    P5    N/A /  75W |   1223MiB /  2000MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      1235      G   /usr/lib/xorg/Xorg                           434MiB |
|    0      2095      G   compiz                                       163MiB |
|    0      2660      G   /opt/teamviewer/tv_bin/TeamViewer              5MiB |
|    0      4166      G   /proc/self/exe                               416MiB |
|    0     13274      C   /home/tss/anaconda3/bin/python               191MiB |
+-----------------------------------------------------------------------------+

可以看到我这里只有一块 GTX 1050,显存一共只有 2000M(太惨了😭)。

4.6.1 计算设备

PyTorch 可以指定用来存储和计算的设备,如使用内存的 CPU 或者使用显存的 GPU。默认情况下,PyTorch 会将数据创建在内存,然后利用 CPU 来计算。

torch.cuda.is_available() 查看 GPU 是否可用:

python
import torch
from torch import nn

torch.cuda.is_available() # 输出 True

查看 GPU 数量:

python
torch.cuda.device_count() # 输出 1

查看当前 GPU 索引号,索引号从 0 开始:

python
torch.cuda.current_device() # 输出 0

根据索引号查看 GPU 名字:

python
torch.cuda.get_device_name(0) # 输出 'GeForce GTX 1050'

4.6.2 Tensor 的 GPU 计算

默认情况下,Tensor 会被存在内存上。因此,之前我们每次打印 Tensor 的时候看不到 GPU 相关标识。

python
x = torch.tensor([1, 2, 3])
x

输出:

tensor([1, 2, 3])

使用 .cuda() 可以将 CPU 上的 Tensor 转换 (复制) 到 GPU 上。如果有多块 GPU,我们用 .cuda(i) 来表示第 ii 块 GPU 及相应的显存 (ii 从 0 开始) 且 cuda(0)cuda() 等价。

python
x = x.cuda(0)
x

输出:

tensor([1, 2, 3], device='cuda:0')

我们可以通过 Tensordevice 属性来查看该 Tensor 所在的设备。

python
x.device

输出:

device(type='cuda', index=0)

我们可以直接在创建的时候就指定设备。

python
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

x = torch.tensor([1, 2, 3], device=device)
# or
x = torch.tensor([1, 2, 3]).to(device)
x

输出:

tensor([1, 2, 3], device='cuda:0')

如果对在 GPU 上的数据进行运算,那么结果还是存放在 GPU 上。

python
y = x**2
y

输出:

tensor([1, 4, 9], device='cuda:0')

需要注意的是,存储在不同位置中的数据是不可以直接进行计算的。即存放在 CPU 上的数据不可以直接与存放在 GPU 上的数据进行运算,位于不同 GPU 上的数据也是不能直接进行计算的。

python
z = y + x.cpu()

会报错:

RuntimeError: Expected object of type torch.cuda.LongTensor but found type torch.LongTensor for argument #3 'other'

4.6.3 模型的 GPU 计算

Tensor 类似,PyTorch 模型也可以通过 .cuda 转换到 GPU 上。我们可以通过检查模型的参数的 device 属性来查看存放模型的设备。

python
net = nn.Linear(3, 1)
list(net.parameters())[0].device

输出:

device(type='cpu')

可见模型在 CPU 上,将其转换到 GPU 上:

python
net.cuda()
list(net.parameters())[0].device

输出:

device(type='cuda', index=0)

同样的,我么需要保证模型输入的 Tensor 和模型都在同一设备上,否则会报错。

python
x = torch.rand(2,3).cuda()
net(x)

输出:

tensor([[-0.5800],
        [-0.2995]], device='cuda:0', grad_fn=<ThAddmmBackward>)

小结

  • PyTorch 可以指定用来存储和计算的设备,如使用内存的 CPU 或者使用显存的 GPU。在默认情况下,PyTorch 会将数据创建在内存,然后利用 CPU 来计算。
  • PyTorch 要求计算的所有输入数据都在内存或同一块显卡的显存上。

注:本节与原书此节有一些不同,原书传送门