Skip to content

3.13 丢弃法

除了前一节介绍的权重衰减以外,深度学习模型常常使用丢弃法 (dropout)[1] 来应对过拟合问题。丢弃法有一些不同的变体。本节中提到的丢弃法特指倒置丢弃法 (inverted dropout)。

3.13.1 方法

回忆一下,3.8 节 (多层感知机) 的图 3.3 描述了一个单隐藏层的多层感知机。其中输入个数为 4,隐藏单元个数为 5,且隐藏单元 hih_i(i=1,,5i=1, \ldots, 5) 的计算表达式为

hi=ϕ(x1w1i+x2w2i+x3w3i+x4w4i+bi)h_i = \phi\left(x_1 w_{1i} + x_2 w_{2i} + x_3 w_{3i} + x_4 w_{4i} + b_i\right)

这里 ϕ\phi 是激活函数,x1,,x4x_1, \ldots, x_4 是输入,隐藏单元 ii 的权重参数为 w1i,,w4iw_{1i}, \ldots, w_{4i},偏差参数为 bib_i。当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为 pp,那么有 pp 的概率 hih_i 会被清零,有 1p1-p 的概率 hih_i 会除以 1p1-p 做拉伸。丢弃概率是丢弃法的超参数。具体来说,设随机变量 ξi\xi_i 为 0 和 1 的概率分别为 pp1p1-p。使用丢弃法时我们计算新的隐藏单元 hih_i'

hi=ξi1phih_i' = \frac{\xi_i}{1-p} h_i

由于 E(ξi)=1pE(\xi_i) = 1-p,因此

E(hi)=E(ξi)1phi=hiE(h_i') = \frac{E(\xi_i)}{1-p}h_i = h_i

丢弃法不改变其输入的期望值。让我们对图 3.3 中的隐藏层使用丢弃法,一种可能的结果如图 3.5 所示,其中 h2h_2h5h_5 被清零。这时输出值的计算不再依赖 h2h_2h5h_5,在反向传播时,与这两个隐藏单元相关的权重的梯度均为 0。由于在训练中隐藏层神经元的丢弃是随机的,即 h1,,h5h_1, \ldots, h_5 都有可能被清零,输出层的计算无法过度依赖 h1,,h5h_1, \ldots, h_5 中的任一个,从而在训练模型时起到正则化的作用,并可以用来应对过拟合。在测试模型时,我们为了拿到更加确定性的结果,一般不使用丢弃法。

图 3.5 隐藏层使用了丢弃法的多层感知机

3.13.2 从零开始实现

根据丢弃法的定义,我们可以很容易地实现它。下面的 dropout 函数将以 drop_prob 的概率丢弃 X 中的元素。

python
%matplotlib inline
import torch
import torch.nn as nn
import numpy as np
import sys
sys.path.append("..")
import d2lzh_pytorch as d2l

def dropout(X, drop_prob):
    X = X.float()
    assert 0 <= drop_prob <= 1
    keep_prob = 1 - drop_prob
    # 这种情况下把全部元素都丢弃
    if keep_prob == 0:
        return torch.zeros_like(X)
    mask = (torch.rand(X.shape) < keep_prob).float()

    return mask * X / keep_prob

我们运行几个例子来测试一下 dropout 函数。其中丢弃概率分别为 0、0.5 和 1。

python
X = torch.arange(16).view(2, 8)
dropout(X, 0)
python
dropout(X, 0.5)
python
dropout(X, 1.0)

3.13.2.1 定义模型参数

实验中,我们依然使用 3.6 节 (softmax 回归的从零开始实现) 中介绍的 Fashion-MNIST 数据集。我们将定义一个包含两个隐藏层的多层感知机,其中两个隐藏层的输出个数都是 256。

python
num_inputs, num_outputs, num_hiddens1, num_hiddens2 = 784, 10, 256, 256

W1 = torch.tensor(np.random.normal(0, 0.01, size=(num_inputs, num_hiddens1)), dtype=torch.float, requires_grad=True)
b1 = torch.zeros(num_hiddens1, requires_grad=True)
W2 = torch.tensor(np.random.normal(0, 0.01, size=(num_hiddens1, num_hiddens2)), dtype=torch.float, requires_grad=True)
b2 = torch.zeros(num_hiddens2, requires_grad=True)
W3 = torch.tensor(np.random.normal(0, 0.01, size=(num_hiddens2, num_outputs)), dtype=torch.float, requires_grad=True)
b3 = torch.zeros(num_outputs, requires_grad=True)

params = [W1, b1, W2, b2, W3, b3]

3.13.2.2 定义模型

下面定义的模型将全连接层和激活函数 ReLU 串起来,并对每个激活函数的输出使用丢弃法。我们可以分别设置各个层的丢弃概率。通常的建议是把靠近输入层的丢弃概率设得小一点。在这个实验中,我们把第一个隐藏层的丢弃概率设为 0.2,把第二个隐藏层的丢弃概率设为 0.5。我们可以通过参数 is_training 来判断运行模式为训练还是测试,并只需在训练模式下使用丢弃法。

python
drop_prob1, drop_prob2 = 0.2, 0.5

def net(X, is_training=True):
    X = X.view(-1, num_inputs)
    H1 = (torch.matmul(X, W1) + b1).relu()
    if is_training:  # 只在训练模型时使用丢弃法
        H1 = dropout(H1, drop_prob1)  # 在第一层全连接后添加丢弃层
    H2 = (torch.matmul(H1, W2) + b2).relu()
    if is_training:
        H2 = dropout(H2, drop_prob2)  # 在第二层全连接后添加丢弃层
    return torch.matmul(H2, W3) + b3

我们在对模型评估的时候不应该进行丢弃,所以我们修改一下 d2lzh_pytorch 中的 evaluate_accuracy 函数:

python
# 本函数已保存在 d2lzh_pytorch
def evaluate_accuracy(data_iter, net):
    acc_sum, n = 0.0, 0
    for X, y in data_iter:
        if isinstance(net, torch.nn.Module):
            net.eval() # 评估模式,这会关闭 dropout
            acc_sum += (net(X).argmax(dim=1) == y).float().sum().item()
            net.train() # 改回训练模式
        else: # 自定义的模型
            if('is_training' in net.__code__.co_varnames): # 如果有 is_training 这个参数
                # 将 is_training 设置成 False
                acc_sum += (net(X, is_training=False).argmax(dim=1) == y).float().sum().item()
            else:
                acc_sum += (net(X).argmax(dim=1) == y).float().sum().item()
        n += y.shape[0]
    return acc_sum / n

注:将上诉 evaluate_accuracy 写回 d2lzh_pytorch 后要重启一下 jupyter kernel 才会生效。

3.13.2.3 训练和测试模型

这部分与之前多层感知机的训练和测试类似。

python
num_epochs, lr, batch_size = 5, 100.0, 256
loss = torch.nn.CrossEntropyLoss()
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, params, lr)

输出:

epoch 1, loss 0.0044, train acc 0.574, test acc 0.648
epoch 2, loss 0.0023, train acc 0.786, test acc 0.786
epoch 3, loss 0.0019, train acc 0.826, test acc 0.825
epoch 4, loss 0.0017, train acc 0.839, test acc 0.831
epoch 5, loss 0.0016, train acc 0.849, test acc 0.850

注:这里的学习率设置的很大,原因同 3.9.6 节。

3.13.3 简洁实现

在 PyTorch 中,我们只需要在全连接层后添加 Dropout 层并指定丢弃概率。在训练模型时,Dropout 层将以指定的丢弃概率随机丢弃上一层的输出元素;在测试模型时 (即 model.eval() 后),Dropout 层并不发挥作用。

python
net = nn.Sequential(
        d2l.FlattenLayer(),
        nn.Linear(num_inputs, num_hiddens1),
        nn.ReLU(),
        nn.Dropout(drop_prob1),
        nn.Linear(num_hiddens1, num_hiddens2),
        nn.ReLU(),
        nn.Dropout(drop_prob2),
        nn.Linear(num_hiddens2, 10)
        )

for param in net.parameters():
    nn.init.normal_(param, mean=0, std=0.01)

下面训练并测试模型。

python
optimizer = torch.optim.SGD(net.parameters(), lr=0.5)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, None, None, optimizer)

输出:

epoch 1, loss 0.0045, train acc 0.553, test acc 0.715
epoch 2, loss 0.0023, train acc 0.784, test acc 0.793
epoch 3, loss 0.0019, train acc 0.822, test acc 0.817
epoch 4, loss 0.0018, train acc 0.837, test acc 0.830
epoch 5, loss 0.0016, train acc 0.848, test acc 0.839

注:由于这里使用的是 PyTorch 的 SGD 而不是 d2lzh_pytorch 里面的 sgd,所以就不存在 3.9.6 节那样学习率看起来很大的问题了。

小结

  • 我们可以通过使用丢弃法应对过拟合。
  • 丢弃法只在训练模型时使用。

参考文献

[1] Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., & Salakhutdinov, R. (2014). Dropout: a simple way to prevent neural networks from overfitting. JMLR


注:本节除了代码之外与原书基本相同,原书传送门