# backward() accumulates the gradient for this tensor into .grad attribute.
# !!! We need to be careful during optimization !!!
# Use .zero_() to empty the gradients before a new optimization step!
weights = torch.ones(4, requires_grad=True)
for epoch in range(3):
# just a dummy example
model_output = (weights*3).sum()
model_output.backward()
print(weights.grad)
这段代码展示了在使用PyTorch进行梯度计算和优化时的一个典型模式,包括如何累积梯度、如何在每一步优化前清空梯度,以及为何这样做是重要的。下面是对代码各部分的解释:
weights = torch.ones(4, requires_grad=True)
这行代码创建了一个长度为4的张量,其初始值全为1,并设置requires_grad=True
。这表示weights
是需要计算梯度的,即在反向传播时,PyTorch会自动计算这些权重的梯度并存储在它们的.grad
属性中。
for epoch in range(3):
# just a dummy example
model_output = (weights*3).sum()
model_output.backward()
print(weights.grad)
这段代码表示了一个简化的训练循环,循环次数(代表“epoch”)为3。在每次循环中:
weights
乘以3再求和得到model_output
。这里的操作(乘以3和求和)仅仅是为了示例,并不代表实际模型的复杂度。model_output.backward()
:这个调用进行自动梯度计算,计算model_output
关于所有requires_grad=True
的张量(在此例中是weights
)的梯度,并将计算得到的梯度累积到weights.grad
属性中。weights.grad
:展示了当前权重的梯度。代码的关键点之一是PyTorch在每次.backward()
调用时累积梯度。这意味着如果不手动清空梯度,那么每次调用.backward()
时计算得到的梯度就会加到已有的梯度上,这通常不是我们想要的行为,因为它会导致梯度值不断增加,从而影响到优化过程。
尽管这段示例代码中没有直接展示清空梯度的操作,但在注释中提到了使用.zero_()
方法来清空梯度是非常重要的一步:
# Use .zero_() to empty the gradients before a new optimization step!
在实际应用中,正确的做法是在每次优化步骤之前调用weights.grad.zero_()
来清空梯度,以避免梯度累积导致的问题。这样可以确保每一步的优化都是基于最新一次前向传播计算得到的梯度。
这段代码展示了在PyTorch中如何计算梯度、梯度累积的特性以及清空梯度的重要性。在实际训练模型时,适时清空梯度是保证模型正确学习的关键步骤之一。
tensor ( [3., 3., 3., 3.])
tensor ( [6., 6., 6., 6.])
tensor([9., 9., 9., 9.])
这段代码的输出展示了在三个训练周期(epoch)内,权重梯度的累积情况。由于在每次循环结束时没有清空梯度,所以得到的是梯度随着每个训练周期而逐步增加的结果。
代码中的关键操作是:
model_output = (weights*3).sum()
model_output.backward()
来计算梯度model_output.backward()
后,计算得到的梯度(对每个权重的梯度是3)被累加到weights.grad
中,因此打印出[3., 3., 3., 3.]
。[3., 3., 3., 3.]
)被添加到现有的梯度上,结果是每个权重的梯度增加到了6,打印出[6., 6., 6., 6.]
。[9., 9., 9., 9.]
。在PyTorch中,.backward()
方法计算的梯度会累加到张量的.grad
属性中,而不是替换它。这意味着如果不手动清空梯度(使用.zero_()
方法),每次.backward()
调用的梯度就会叠加起来。这个特性在某些情况下是有用的,比如当你想要在多个小批量(minibatches)上累积梯度时。然而,在大多数情况下,在每次迭代前清空梯度是必要的,以避免因错误累积梯度而导致的优化问题。
在这个特定的例子中,梯度值为3的原因是模型输出model_output
是权重weights
乘以3后的值的和。因此,model_output
关于每个权重的梯度就是3,这是由于求和操作的导数为1,且每个权重被乘以3。
为了更好地理解为什么梯度是3,我们可以详细地通过计算过程来阐述。
考虑模型输出 model_output
的计算公式,它是通过权重 weights
乘以一个常数(在这个例子中是3),然后对结果求和来得到的。如果我们将权重表示为
(
w
1
,
w
2
,
w
3
,
w
4
)
(w_1, w_2, w_3, w_4)
(w1,w2,w3,w4)(因为 weights
初始化为一个长度为4的张量),模型输出 model_output
可以表示为:
m o d e l _ o u t p u t = 3 w 1 + 3 w 2 + 3 w 3 + 3 w 4 model\_output = 3w_1 + 3w_2 + 3w_3 + 3w_4 model_output=3w1+3w2+3w3+3w4
我们要计算的是模型输出 model_output
关于每个权重的梯度,即
(
∂
m
o
d
e
l
_
o
u
t
p
u
t
∂
w
i
)
(\frac{\partial model\_output}{\partial w_i})
(∂wi∂model_output),其中
i
i
i 是权重的索引(1, 2, 3, 4)。
根据导数的定义,对于每个 w i w_i wi,其梯度计算如下:
∂
m
o
d
e
l
_
o
u
t
p
u
t
∂
w
1
=
3
\frac{\partial model\_output}{\partial w_1} = 3
∂w1∂model_output=3
∂
m
o
d
e
l
_
o
u
t
p
u
t
∂
w
2
=
3
\frac{\partial model\_output}{\partial w_2} = 3
∂w2∂model_output=3
∂
m
o
d
e
l
_
o
u
t
p
u
t
∂
w
3
=
3
\frac{\partial model\_output}{\partial w_3} = 3
∂w3∂model_output=3
∂
m
o
d
e
l
_
o
u
t
p
u
t
∂
w
4
=
3
\frac{\partial model\_output}{\partial w_4} = 3
∂w4∂model_output=3
这是因为 model_output
相对于每个
w
i
w_i
wi 的导数是3,即每个权重的系数。当你在代码中执行 model_output.backward()
时,PyTorch 自动计算这些导数(梯度),并将结果存储在 weights.grad
中。
因此,无论是第一次迭代还是随后的迭代,每次调用 model_output.backward()
都会在之前的基础上累加梯度3到 weights.grad
中,这就是为什么你看到梯度从 [3., 3., 3., 3.]
开始,每次迭代后都递增3的原因。这也解释了为何在每次迭代之前重置梯度是必要的,以防止错误累积导致的问题。