pytorch,梯度参数是什么


112

我正在阅读PyTorch的文档,并找到了他们编写的示例

gradients = torch.FloatTensor([0.1, 1.0, 0.0001])
y.backward(gradients)
print(x.grad)

其中x是初始变量,从中构造y(3矢量)。问题是,梯度张量的0.1、1.0和0.0001参数是什么?该文档不是很清楚。

Answers:


15

我在PyTorch网站上找不到的原始代码了。

gradients = torch.FloatTensor([0.1, 1.0, 0.0001])
y.backward(gradients)
print(x.grad)

上面代码的问题没有基于计算梯度的函数。这意味着我们不知道有多少个参数(函数采用的参数)以及参数的维数。

为了完全理解这一点,我创建了一个接近原始示例:

范例1:

a = torch.tensor([1.0, 2.0, 3.0], requires_grad = True)
b = torch.tensor([3.0, 4.0, 5.0], requires_grad = True)
c = torch.tensor([6.0, 7.0, 8.0], requires_grad = True)

y=3*a + 2*b*b + torch.log(c)    
gradients = torch.FloatTensor([0.1, 1.0, 0.0001])
y.backward(gradients,retain_graph=True)    

print(a.grad) # tensor([3.0000e-01, 3.0000e+00, 3.0000e-04])
print(b.grad) # tensor([1.2000e+00, 1.6000e+01, 2.0000e-03])
print(c.grad) # tensor([1.6667e-02, 1.4286e-01, 1.2500e-05])

我假设我们的函数是y=3*a + 2*b*b + torch.log(c),并且参数是带有三个元素的张量。

您可以想到gradients = torch.FloatTensor([0.1, 1.0, 0.0001])这样的累加器。

您可能会听到PyTorch autograd系统的计算等效于Jacobian乘积。

雅可比

如果您有一个像我们一样的功能:

y=3*a + 2*b*b + torch.log(c)

雅各布会是[3, 4*b, 1/c]。然而,这种雅可比行列式并不是PyTorch所做的事情来计算特定点的梯度。

PyTorch串联使用前进和后退模式自动微分(AD)。

没有涉及符号数学,也没有数值微分。

数值差异是计算δy/δb,用于b=1b=1+ε其中ε是小的。

如果您不在中使用渐变y.backward()

例子2

a = torch.tensor(0.1, requires_grad = True)
b = torch.tensor(1.0, requires_grad = True)
c = torch.tensor(0.1, requires_grad = True)
y=3*a + 2*b*b + torch.log(c)

y.backward()

print(a.grad) # tensor(3.)
print(b.grad) # tensor(4.)
print(c.grad) # tensor(10.)

根据最初设置,张量的方式a,您可以简单地在某个时刻获得结果。bc

小心你如何初始化abc

范例3:

a = torch.empty(1, requires_grad = True, pin_memory=True)
b = torch.empty(1, requires_grad = True, pin_memory=True)
c = torch.empty(1, requires_grad = True, pin_memory=True)

y=3*a + 2*b*b + torch.log(c)

gradients = torch.FloatTensor([0.1, 1.0, 0.0001])
y.backward(gradients)

print(a.grad) # tensor([3.3003])
print(b.grad) # tensor([0.])
print(c.grad) # tensor([inf])

如果使用torch.empty()和不使用pin_memory=True,则每次可能会有不同的结果。

另外,音符梯度就像累加器,因此在需要时将它们归零。

范例4:

a = torch.tensor(1.0, requires_grad = True)
b = torch.tensor(1.0, requires_grad = True)
c = torch.tensor(1.0, requires_grad = True)
y=3*a + 2*b*b + torch.log(c)

y.backward(retain_graph=True)
y.backward()

print(a.grad) # tensor(6.)
print(b.grad) # tensor(8.)
print(c.grad) # tensor(2.)

最后,PyTorch使用的术语提示:

当计算前向通过中的梯度时,PyTorch会创建一个动态计算图。这看起来很像一棵树。

因此,您经常会听到这棵树的叶子输入张量,而输出张量

通过从根到叶跟踪图并使用链法则将每个梯度相乘来计算梯度。这种相乘发生在后退通道中。


好答案!但是,我不认为Pytorch会进行数值微分(“对于以前的函数,PyTorch会针对δy/δb(对于b = 1和b = 1 +ε,其中ε小)进行处理。因此没有像符号数学这样的东西。 ”)-我相信它可以自动区分。
max_max_mir

是的,它使用AD或自动区分,后来我像本PDF一样对AD进行了进一步调查,但是,当我设置此答案时,我并不十分了解。
prosti

例如,示例2给出了RuntimeError:形状不匹配:grad_output [0]的形状为torch.Size([3]),output [0]的形状为torch.Size([])。
Andreas K.

@AndreasK。,您是对的,PyTorch最近引入了零尺寸张量,这对我之前的示例产生了影响。由于这些示例并不重要,因此将其删除。
prosti

100

说明

对于神经网络,我们通常用于loss评估网络对输入图像(或其他任务)进行分类的学习程度。该loss术语通常是标量值。为了更新网络的参数,我们需要计算losswrt到参数的梯度,该梯度实际上leaf node在计算图中(顺便说一下,这些参数主要是各个层的权重和偏差,例如卷积,线性和依此类推)。

根据链式规则,为了计算losswrt到叶节点的梯度,我们可以计算losswrt到某个中间变量的导数,并计算wrt到叶变量的梯度,做一个点积并将所有这些加起来。

's 方法的自gradient变量用于计算变量Variable与叶子Variable的每个元素的加权和这些权重只是中间变量每个元素最终的派生。Variablebackward()loss

一个具体的例子

让我们举一个具体而简单的例子来理解这一点。

from torch.autograd import Variable
import torch
x = Variable(torch.FloatTensor([[1, 2, 3, 4]]), requires_grad=True)
z = 2*x
loss = z.sum(dim=1)

# do backward for first element of z
z.backward(torch.FloatTensor([[1, 0, 0, 0]]), retain_graph=True)
print(x.grad.data)
x.grad.data.zero_() #remove gradient in x.grad, or it will be accumulated

# do backward for second element of z
z.backward(torch.FloatTensor([[0, 1, 0, 0]]), retain_graph=True)
print(x.grad.data)
x.grad.data.zero_()

# do backward for all elements of z, with weight equal to the derivative of
# loss w.r.t z_1, z_2, z_3 and z_4
z.backward(torch.FloatTensor([[1, 1, 1, 1]]), retain_graph=True)
print(x.grad.data)
x.grad.data.zero_()

# or we can directly backprop using loss
loss.backward() # equivalent to loss.backward(torch.FloatTensor([1.0]))
print(x.grad.data)    

在上面的示例中,first的结果print

2 0 0 0
[torch.FloatTensor大小为1x4]

恰好是z_1 wrt到x的导数。

第二个结果print是:

0 2 0 0
[torx.FloatTensor大小为1x4]

这是z_2 wrt对x的导数。

现在,如果使用权重[1,1,1,1]计算z wrt对x的导数,则结果为1*dz_1/dx + 1*dz_2/dx + 1*dz_3/dx + 1*dz_4/dx。因此,不足为奇的是,3rd的输出print是:

2 2 2 2
[torch.FloatTensor大小为1x4]

应当注意,权重向量[ loss1、1、1、1 ]正是wrt到z_1,z_2,z_3和z_4的导数。losswrt to 的导数x计算如下:

d(loss)/dx = d(loss)/dz_1 * dz_1/dx + d(loss)/dz_2 * dz_2/dx + d(loss)/dz_3 * dz_3/dx + d(loss)/dz_4 * dz_4/dx

因此4th的输出print与3rd相同print

2 2 2 2
[torch.FloatTensor大小为1x4]


1
只是一个疑问,为什么我们要为损耗或z的梯度计算x.grad.data
Priyank Pathak

7
也许我错过了一些东西,但是我觉得官方文档确实可以gradient更好地解释这一论点。感谢您的回答。
主角

3
@jdhao “应该注意的是,权重矢量[1, 1, 1, 1]是完全衍生物的loss至WRT z_1z_2z_3z_4。” 我认为这句话确实是答案的关键。在查看OP的代码时,一个很大的问号是梯度的这些任意(魔术)数字从何而来。在您的具体示例中,我认为立即指出例如[1, 0, 0 0]张量和loss函数之间的关系非常有帮助,这样一来,您可以看到在该示例中这些值不是任意的。
a_guest

1
@smwikipedia,那是不正确的。如果我们扩大规模loss = z.sum(dim=1),它将成为现实loss = z_1 + z_2 + z_3 + z_4。如果您知道简单的演算,就会知道losswrt to 的导数z_1, z_2, z_3, z_4[1, 1, 1, 1]
jdhao

1
我爱你。解决了我的疑问!
黑杰克19年

45

通常,您的计算图只有一个标量输出loss。然后,您可以通过来计算loss权重(w)的梯度loss.backward()。的默认参数backward()1.0

如果您的输出具有多个值(例如loss=[loss1, loss2, loss3]),则可以使用来计算权重的损耗梯度loss.backward(torch.FloatTensor([1.0, 1.0, 1.0]))

此外,如果要为不同的损失增加权重或重要性,可以使用loss.backward(torch.FloatTensor([-0.1, 1.0, 0.0001]))

这意味着要计算 -0.1*d(loss1)/dw, d(loss2)/dw, 0.0001*d(loss3)/dw同时。


1
“如果要为不同的损失添加权重或重要性,则可以使用loss.backward(torch.FloatTensor([-0.1,1.0,0.0001]))。->这是正确的,但有些误导,因为我们通过的主要原因grad_tensors不是权衡它们的权重,而是它们是对应张量的每个元素的梯度。
艾琳

27

在这里,forward()的输出(即y)是一个3向量。

这三个值是网络输出处的梯度。如果y是最终输出,通常将它们设置为1.0,但也可以具有其他值,特别是如果y是较大网络的一部分。

例如。如果x是输入,则y = [y1,y2,y3]是中间输出,用于计算最终输出z,

然后,

dz/dx = dz/dy1 * dy1/dx + dz/dy2 * dy2/dx + dz/dy3 * dy3/dx

所以在这里,向后的三个值是

[dz/dy1, dz/dy2, dz/dy3]

然后backward()计算dz / dx


5
感谢您的回答,但这在实践中有什么用?我的意思是,除了硬编码反向传播外,我们还需要什么[dz / dy1,dz / dy2,dz / dy3]?
hi15

说提供的渐变参数是在网络的后半部分计算出来的渐变,是否正确?
Khanetor
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.