6.1 weight decay 和 dropout
这篇文章主要介绍了正则化与偏差-方差分解,以及 PyTorch 中的 L2 正则项--weight decay

Regularization

Regularization 中文是正则化,可以理解为一种减少方差的策略。
在机器学习中,误差可以分解为:偏差,方差与噪声之和。即误差=偏差+方差+噪声
偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力。
方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响。
噪声则表达了在当前任务上学习任何算法所能达到的期望泛化误差的下界。
正则化方式有 L1 和 L2 正则项两种。其中 L2 正则项又被称为权值衰减(weight decay)。
当没有正则项时:$\boldsymbol{O} \boldsymbol{b} \boldsymbol{j}=\boldsymbol{L} \boldsymbol{o} \boldsymbol{s} \boldsymbol{s}$,$w{i+1}=w{i}-\frac{\partial o b j}{\partial w{i}}=w{i}-\frac{\partial L o s s}{\partial w_{i}}$。
当使用 L2 正则项时,$\boldsymbol{O} \boldsymbol{b} \boldsymbol{j}=\boldsymbol{L} \boldsymbol{o} \boldsymbol{s} \boldsymbol{s}+\frac{\lambda}{2} \sum{i}^{N} \boldsymbol{w}{i}^{2}$,$\begin{aligned} w{i+1}=w{i}-\frac{\partial o b j}{\partial w{i}} &=w{i}-\left(\frac{\partial L o s s}{\partial w_{i}}+\lambda w{i}\right) =w{i}(1-\lambda)-\frac{\partial L o s s}{\partial w_{i}} \end{aligned}$,其中$0 < \lambda < 1$,所以具有权值衰减的作用。
在 PyTorch 中,L2 正则项是在优化器中实现的,在构造优化器时可以传入 weight decay 参数,对应的是公式中的$\lambda $。
下面代码对比了没有 weight decay 的优化器和 weight decay 为 0.01 的优化器的训练情况,在线性回归的数据集上进行实验,模型使用 3 层的全连接网络,并使用 TensorBoard 可视化每层权值的变化情况。代码如下:
1
import torch
2
import torch.nn as nn
3
import matplotlib.pyplot as plt
4
from common_tools import set_seed
5
from tensorboardX import SummaryWriter
6
7
set_seed(1) # 设置随机种子
8
n_hidden = 200
9
max_iter = 2000
10
disp_interval = 200
11
lr_init = 0.01
12
13
14
# ============================ step 1/5 数据 ============================
15
def gen_data(num_data=10, x_range=(-1, 1)):
16
17
w = 1.5
18
train_x = torch.linspace(*x_range, num_data).unsqueeze_(1)
19
train_y = w*train_x + torch.normal(0, 0.5, size=train_x.size())
20
test_x = torch.linspace(*x_range, num_data).unsqueeze_(1)
21
test_y = w*test_x + torch.normal(0, 0.3, size=test_x.size())
22
23
return train_x, train_y, test_x, test_y
24
25
26
train_x, train_y, test_x, test_y = gen_data(x_range=(-1, 1))
27
28
29
# ============================ step 2/5 模型 ============================
30
class MLP(nn.Module):
31
def __init__(self, neural_num):
32
super(MLP, self).__init__()
33
self.linears = nn.Sequential(
34
nn.Linear(1, neural_num),
35
nn.ReLU(inplace=True),
36
nn.Linear(neural_num, neural_num),
37
nn.ReLU(inplace=True),
38
nn.Linear(neural_num, neural_num),
39
nn.ReLU(inplace=True),
40
nn.Linear(neural_num, 1),
41
)
42
43
def forward(self, x):
44
return self.linears(x)
45
46
47
net_normal = MLP(neural_num=n_hidden)
48
net_weight_decay = MLP(neural_num=n_hidden)
49
50
# ============================ step 3/5 优化器 ============================
51
optim_normal = torch.optim.SGD(net_normal.parameters(), lr=lr_init, momentum=0.9)
52
optim_wdecay = torch.optim.SGD(net_weight_decay.parameters(), lr=lr_init, momentum=0.9, weight_decay=1e-2)
53
54
# ============================ step 4/5 损失函数 ============================
55
loss_func = torch.nn.MSELoss()
56
57
# ============================ step 5/5 迭代训练 ============================
58
59
writer = SummaryWriter(comment='_test_tensorboard', filename_suffix="12345678")
60
for epoch in range(max_iter):
61
62
# forward
63
pred_normal, pred_wdecay = net_normal(train_x), net_weight_decay(train_x)
64
loss_normal, loss_wdecay = loss_func(pred_normal, train_y), loss_func(pred_wdecay, train_y)
65
66
optim_normal.zero_grad()
67
optim_wdecay.zero_grad()
68
69
loss_normal.backward()
70
loss_wdecay.backward()
71
72
optim_normal.step()
73
optim_wdecay.step()
74
75
if (epoch+1) % disp_interval == 0:
76
77
# 可视化
78
for name, layer in net_normal.named_parameters():
79
writer.add_histogram(name + '_grad_normal', layer.grad, epoch)
80
writer.add_histogram(name + '_data_normal', layer, epoch)
81
82
for name, layer in net_weight_decay.named_parameters():
83
writer.add_histogram(name + '_grad_weight_decay', layer.grad, epoch)
84
writer.add_histogram(name + '_data_weight_decay', layer, epoch)
85
86
test_pred_normal, test_pred_wdecay = net_normal(test_x), net_weight_decay(test_x)
87
88
# 绘图
89
plt.scatter(train_x.data.numpy(), train_y.data.numpy(), c='blue', s=50, alpha=0.3, label='train')
90
plt.scatter(test_x.data.numpy(), test_y.data.numpy(), c='red', s=50, alpha=0.3, label='test')
91
plt.plot(test_x.data.numpy(), test_pred_normal.data.numpy(), 'r-', lw=3, label='no weight decay')
92
plt.plot(test_x.data.numpy(), test_pred_wdecay.data.numpy(), 'b--', lw=3, label='weight decay')
93
plt.text(-0.25, -1.5, 'no weight decay loss={:.6f}'.format(loss_normal.item()), fontdict={'size': 15, 'color': 'red'})
94
plt.text(-0.25, -2, 'weight decay loss={:.6f}'.format(loss_wdecay.item()), fontdict={'size': 15, 'color': 'red'})
95
96
plt.ylim((-2.5, 2.5))
97
plt.legend(loc='upper left')
98
plt.title("Epoch: {}".format(epoch+1))
99
plt.show()
100
plt.close()
Copied!
训练 2000 个 epoch 后,模型如下:
可以看到使用了 weight decay 的模型虽然在训练集的 loss 更高,但是更加平滑,泛化能力更强。
下面是使用 Tensorboard 可视化的分析。首先查看不带 weight decay 的权值变化过程,第一层权值变化如下:
可以看到从开始到结束,权值的分布都没有什么变化。
然后查看带 weight decay 的权值变化过程,第一层权值变化如下:
可以看到,加上了 weight decay 后,随便训练次数的增加,权值的分布逐渐靠近 0 均值附近,这就是 L2 正则化的作用,约束权值尽量靠近 0。
第二层不带 weight decay 的权值变化如下:
第二层带 weight decay 的权值变化如下:

weight decay 在 优化器中的实现

由于 weight decay 在优化器的一个参数,因此在执行optim_wdecay.step()时,会计算 weight decay 后的梯度,具体代码如下:
1
def step(self, closure=None):
2
"""Performs a single optimization step.
3
4
Arguments:
5
closure (callable, optional): A closure that reevaluates the model
6
and returns the loss.
7
"""
8
loss = None
9
if closure is not None:
10
loss = closure()
11
12
for group in self.param_groups:
13
weight_decay = group['weight_decay']
14
momentum = group['momentum']
15
dampening = group['dampening']
16
nesterov = group['nesterov']
17
18
for p in group['params']:
19
if p.grad is None:
20
continue
21
d_p = p.grad.data
22
if weight_decay != 0:
23
d_p.add_(weight_decay, p.data)
24
...
25
...
26
...
27
p.data.add_(-group['lr'], d_p)
Copied!
可以看到:dp 是计算得到的梯度,如果 weight decay 不为 0,那么更新 $d_p=dp+weight_decay \times p.data$,对应公式:$\left(\frac{\partial L o s s}{\partial w{i}}+\lambda * w_{i}\right)$。最后一行是根据梯度更新权值。

Dropout

Dropout 是另一种抑制过拟合的方法。在使用 dropout 时,数据尺度会发生变化,如果设置 dropout_prob =0.3,那么在训练时,数据尺度会变为原来的 70%;而在测试时,执行了 model.eval() 后,dropout 是关闭的,因此所有权重需要乘以 (1-dropout_prob),把数据尺度也缩放到 70%。
PyTorch 中 Dropout 层如下,通常放在每个网路层的最前面:
1
torch.nn.Dropout(p=0.5, inplace=False)
Copied!
参数:
  • p:主力需要注意的是,p 是被舍弃的概率,也叫失活概率
下面实验使用的依然是线性回归的例子,两个网络均是 3 层的全连接层,每层前面都设置 dropout,一个网络的 dropout 设置为 0,另一个网络的 dropout 设置为 0.5,并使用 TensorBoard 可视化每层权值的变化情况。代码如下:
1
import torch
2
import torch.nn as nn
3
import matplotlib.pyplot as plt
4
from common_tools import set_seed
5
from tensorboardX import SummaryWriter
6
7
set_seed(1) # 设置随机种子
8
n_hidden = 200
9
max_iter = 2000
10
disp_interval = 400
11
lr_init = 0.01
12
13
14
# ============================ step 1/5 数据 ============================
15
def gen_data(num_data=10, x_range=(-1, 1)):
16
17
w = 1.5
18
train_x = torch.linspace(*x_range, num_data).unsqueeze_(1)
19
train_y = w*train_x + torch.normal(0, 0.5, size=train_x.size())
20
test_x = torch.linspace(*x_range, num_data).unsqueeze_(1)
21
test_y = w*test_x + torch.normal(0, 0.3, size=test_x.size())
22
23
return train_x, train_y, test_x, test_y
24
25
26
train_x, train_y, test_x, test_y = gen_data(x_range=(-1, 1))
27
28
29
# ============================ step 2/5 模型 ============================
30
class MLP(nn.Module):
31
def __init__(self, neural_num, d_prob=0.5):
32
super(MLP, self).__init__()
33
self.linears = nn.Sequential(
34
35
nn.Linear(1, neural_num),
36
nn.ReLU(inplace=True),
37
38
nn.Dropout(d_prob),
39
nn.Linear(neural_num, neural_num),
40
nn.ReLU(inplace=True),
41
42
nn.Dropout(d_prob),
43
nn.Linear(neural_num, neural_num),
44
nn.ReLU(inplace=True),
45
46
nn.Dropout(d_prob),
47
nn.Linear(neural_num, 1),
48
)
49
50
def forward(self, x):
51
return self.linears(x)
52
53
54
net_prob_0 = MLP(neural_num=n_hidden, d_prob=0.)
55
net_prob_05 = MLP(neural_num=n_hidden, d_prob=0.5)
56
57
# ============================ step 3/5 优化器 ============================
58
optim_normal = torch.optim.SGD(net_prob_0.parameters(), lr=lr_init, momentum=0.9)
59
optim_reglar = torch.optim.SGD(net_prob_05.parameters(), lr=lr_init, momentum=0.9)
60
61
# ============================ step 4/5 损失函数 ============================
62
loss_func = torch.nn.MSELoss()
63
64
# ============================ step 5/5 迭代训练 ============================
65
66
writer = SummaryWriter(comment='_test_tensorboard', filename_suffix="12345678")
67
for epoch in range(max_iter):
68
69
pred_normal, pred_wdecay = net_prob_0(train_x), net_prob_05(train_x)
70
loss_normal, loss_wdecay = loss_func(pred_normal, train_y), loss_func(pred_wdecay, train_y)
71
72
optim_normal.zero_grad()
73
optim_reglar.zero_grad()
74
75
loss_normal.backward()
76
loss_wdecay.backward()
77
78
optim_normal.step()
79
optim_reglar.step()
80
81
if (epoch+1) % disp_interval == 0:
82
83
net_prob_0.eval()
84
net_prob_05.eval()
85
86
# 可视化
87
for name, layer in net_prob_0.named_parameters():
88
writer.add_histogram(name + '_grad_normal', layer.grad, epoch)
89
writer.add_histogram(name + '_data_normal', layer, epoch)
90
91
for name, layer in net_prob_05.named_parameters():
92
writer.add_histogram(name + '_grad_regularization', layer.grad, epoch)
93
writer.add_histogram(name + '_data_regularization', layer, epoch)
94
95
test_pred_prob_0, test_pred_prob_05 = net_prob_0(test_x), net_prob_05(test_x)
96
97
# 绘图
98
plt.scatter(train_x.data.numpy(), train_y.data.numpy(), c='blue', s=50, alpha=0.3, label='train')
99
plt.scatter(test_x.data.numpy(), test_y.data.numpy(), c='red', s=50, alpha=0.3, label='test')
100
plt.plot(test_x.data.numpy(), test_pred_prob_0.data.numpy(), 'r-', lw=3, label='d_prob_0')
101
plt.plot(test_x.data.numpy(), test_pred_prob_05.data.numpy(), 'b--', lw=3, label='d_prob_05')
102
plt.text(-0.25, -1.5, 'd_prob_0 loss={:.8f}'.format(loss_normal.item()), fontdict={'size': 15, 'color': 'red'})
103
plt.text(-0.25, -2, 'd_prob_05 loss={:.6f}'.format(loss_wdecay.item()), fontdict={'size': 15, 'color': 'red'})
104
105
plt.ylim((-2.5, 2.5))
106
plt.legend(loc='upper left')
107
plt.title("Epoch: {}".format(epoch+1))
108
plt.show()
109
plt.close()
110
111
net_prob_0.train()
112
net_prob_05.train()
Copied!
训练 2000 次后,模型的曲线如下:
我们使用 TensorBoard 查看第三层网络的权值变化情况。
dropout =0 的权值变化如下:
dropout =0.5 的权值变化如下:
可以看到,加了 dropout 之后,权值更加集中在 0 附近,使得神经元之间的依赖性不至于过大。

model.eval() 和 model.trian()

有些网络层在训练状态和测试状态是不一样的,如 dropout 层,在训练时 dropout 层是有效的,但是数据尺度会缩放,为了保持数据尺度不变,所有的权重需要除以 1-p。而在测试时 dropout 层是关闭的。因此在测试时需要先调用model.eval()设置各个网络层的的training属性为 False,在训练时需要先调用model.train()设置各个网络层的的training属性为 True。
下面是对比 dropout 层的在 eval 和 train 模式下的输出值。
首先构造一层全连接网络,输入是 10000 个神经元,输出是 1 个神经元,权值全设为 1,dropout 设置为 0.5。输入是全为 1 的向量。分别测试网络在 train 模式和 eval 模式下的输出,代码如下:
1
import torch
2
import torch.nn as nn
3
4
class Net(nn.Module):
5
def __init__(self, neural_num, d_prob=0.5):
6
super(Net, self).__init__()
7
8
self.linears = nn.Sequential(
9
10
nn.Dropout(d_prob),
11
nn.Linear(neural_num, 1, bias=False),
12
nn.ReLU(inplace=True)
13
)
14
15
def forward(self, x):
16
return self.linears(x)
17
18
input_num = 10000
19
x = torch.ones((input_num, ), dtype=torch.float32)
20
21
net = Net(input_num, d_prob=0.5)
22
net.linears[1].weight.detach().fill_(1.)
23
24
net.train()
25
y = net(x)
26
print("output in training mode", y)
27
28
net.eval()
29
y = net(x)
30
print("output in eval mode", y)
Copied!
输出如下:
1
output in training mode tensor([9868.], grad_fn=<ReluBackward1>)
2
output in eval mode tensor([10000.], grad_fn=<ReluBackward1>)
Copied!
在训练时,由于 dropout 为 0.5,因此理论上输出值是 5000,而由于在训练时,dropout 层会把权值除以 1-p=0.5,也就是乘以 2,因此在 train 模式的输出是10000 附近的数(上下随机浮动是由于概率的不确定性引起的) 。而在 eval 模式下,关闭了 dropout,因此输出值是 10000。这种方式在训练时对权值进行缩放,在测试时就不用对权值进行缩放,加快了测试的速度。
参考资料
如果你觉得这篇文章对你有帮助,不妨点个赞,让我有更多动力写出好文章。
我的文章会首发在公众号上,欢迎扫码关注我的公众号张贤同学
最近更新 1yr ago