原版英文链接:Edward Z. Yang's PyTorch internals : Inside 245-5D
Autograd
PyTorch与Python、Numpy等最大的区别在于自动求导机制,这种机制为神经网络训练过程中的梯度计算而特别设计。为了说明梯度计算,先给出如下一段计算进行展示:
i2h = torch.mm(W_x, x.t())
h2h = torch.mm(W_h, prev_h.t())
next_h = i2h + h2h
next_h2 = next_h.tanh()
loss = next_h2.sum()
通过PyTorch的自动求导机制,系统底层会进行类似如下的求导计算:
grad_loss = torch.tensor(1, dtype=loss.dtype())
grad_next_h2 += grad_loss.expand(next_h2.size())
grad_next_h += tanh_backward(grad_next_h2, next_h2)
grad_i2h, grad_h2h += grad_next_h, grad_next_h
W_h.grad += mm_mat1_backward(grad_h2h, prev_h.t(), W_h, 1)
W_x.grad += mm_mat1_backward(grad_i2h, x_t(), W_x, 1)
一个正向计算,有其对应的反向梯度计算。正向计算的输出通常也会作为输入,参与反向梯度计算。例如,tanh
的计算转换为tanh_backward
计算,tanh
计算的输出next_h2
成为tanh_backward
计算的输入。
上述计算过程实际就是基于链式规则的反向梯度计算:
= /
取值恒为1
= /
对每个分量求偏导数,求和计算的求导输出与维度一致的全1向量,对应的函数实现为
为了支持自动求导计算,需要存储更多的信息。PyTorch增加Variable类型,封装(wrapping)Tensor并增加额外的元数据(Autograd Meta)用于反向梯度计算。此外也需要更新调度(dispatches)流程,在调度不同的设别实现之前(见Tensor介绍),需要对Variable进行拆封(unwrapping),增加额外需要进行梯度计算的信息后再一次封装(rewrapping)。
说明:以下内容原博客没有详细展开,非原文作者内容。由本文作者基于ppt和参考文献制作。
Autograd Meta
从PyTorch 0.4版本开始,支持梯度计算的Variable已经和Tensor合并。Tensor本身即包含了支持自动梯度计算所需的属性,主要包括:
data: Tensor类型,描述实际参与计算的数据内容。
requires_grad: bool类型,描述当前变量是否需要参与梯度计算。True
表示参与梯度计算,PyTorch底层会开始跟踪所有该变量参与的计算路径。
grad: Tensor类型,存储当前变量的梯度值。如果requires_grad=False
,该值为None
;当requires_grad=True
,如果计算路径上的输出节点没有调用backward()
执行求导计算,取值仍为None
;只有两个条件都满足时,grad
才有取值。对于变量x
,及其路径上的输出节点out(x)
,调用out.backward()
后,。
grad_fun: 梯度计算函数,用于求取输出节点相对当前变量的梯度值。通常,对于一个正向计算函数,有对应的梯度计算函数。正向计算的输出也会参与梯度的计算过程。
is_leaf: bool类型,描述当前变量在动态计算图中是否为叶子节点。一个节点是叶子节点的三种情况为:
1.通过显式声明的变量,例如x=torch.tensor(1.0)
2.通过全部为requires_grad=False
的输出变量而创建的输出变量。
3.通过调用detach()
得到的变量
只有requires_grad
和is_leaf
都为True
的节点,才会进行梯度的计算,得到的梯度值更新到grad
属性中。
Jacobian Vector Product
backward()
函数用来触发梯度的计算。该函数支持外部Tensor参数调用,参数的维度需要与调用backward()
函数的变量一致。考虑到神经网络训练过程中,大部分情况是计算损失(标量)对高维权重的梯度,backward()
参数的默认值为tensor(1.0)
,维度与损失标量一致,out.backward()
调用其实是 out.backward(torch.tensor(1.0))
如果out
是非标量变量,则需要传入维度一致的参数。例如:
x = torch.rand(1,3, requires_grad=True)
y = torch.rand(1,3, requires_grad=True)
out = x*y
out.backward(torch.FloatTensor([1.0, 1.0, 1.0]))
out
是1x3
维的向量,调用backward()
函数需要传入同等维度的参数。如果直接调用out.backward()
,会触发RuntimeError: grad can be implicitly created only for scalar outputs
错误。
节点间梯度的计算实际是Jacobian Vector乘积的过程。以正向计算的输出向量为输入向量,乘以输出向量相对于求导变量的Jacobian矩阵,得到当前变量的反向梯度值。
假设向量X=[x1, x2, ..., xn]
,通过某个函数映射一组输出向量f(X)=[f1(X), f2(X), ..., fm(X)]
,则f(x)
的Jacobian矩阵为:
应用到PyTorch的反向梯度计算中,针对如下伪代码计算流程:
# pseudo-code
x = [x1, x2, ..., xn]
y = f(x)=[y1(x), y2(x), ..., ym(x)]
l = loss_fun(y)
l.backward()
实际底层通过Jacobian Vector乘积的流程为:
计算损失
l
相对向量y
的梯度,
该向量称为梯度张量(grad_tensor)。-
计算损失
l
相对输入向量x
的梯度。通过链式法则。为向量对向量的求导,需要用到Jacobian矩阵。结合第一步计算的梯度张量:
通过Jacobian Vector乘积方式,实现了计算步骤中,任意维度输出相对任意维度输入的梯度计算。通过链式连接计算路径上各步骤,得到最终的梯度值。
那么计算路径如何描述呢?
Dynamic Computational Graph
在PyTorch中,计算路径通过动态计算图(Dynamic Computational Graph, DCG)描述。DGC由变量和函数组成,包含两层含义:
计算图:通过图的方式描述数学计算过程。在计算图中,节点由输入和计算函数组成,数据通过边流向下一个节点。PyTorch的计算图是有向无环图(Directed Acyclic Graph, DAG),叶子节点由输入变量组成,根节点由输出变量组成,中间节点既可以是算术操作符,也可以中间结果变量。
动态图: 在Caffe以及早期版本的TensorFlow中,计算图是静态的,即预先定义好计算的顺序。运行过程中只是数据的流通,计算图是不可变动的。在PyTorch中计算图是动态的,边构建边定义(define-by-run)。动态图支持构建过程中随时查看中间结果,而静态图则需要定义图之后,运行整个图才能查看结果。此外,动态图天然支持运行过程中结构动态变化的神经网络架构。当然,由于每次迭代都会构建一个全新的计算图,会影响计算速度。
反向梯度计算过程直接依赖于正向构建的计算图。计算从调用backward()
函数的根节点开始,沿计算图反向追踪到所有可以触达的requires_grad=True
的叶子节点(is_leaf=True
)。只有requires_grad=True
的叶子节点才需要计算梯度值。
针对如下的计算片段:
a = torch.tensor(2.0, requires_grad=True)
b = torch.tensor(3.0)
c = a * b
d = torch.tensor(4.0, requires_grad=True)
e = c * d
e.backward()
通过计算图描述为:
计算图由变量节点和函数节点组成。
变量节点存储与计算相关的属性(见上文描述),函数节点分为正向计算节点和梯度计算节点。如图中的mul
以及MulBackward
节点,分别表示正向的乘积运算和乘积的反向梯度运算。并且,MulBackward
节点的引用保存在正向计算输出的变量节点(如图中的e
和c
)的grad_fun
属性。
函数节点保存了当前计算的上下文(context),正向计算节点和反向梯度计算节点通过上下文对象共享中间存储结果。在PyTorch中,参与梯度计算的函数需继承自torch.autograd.Function
类,并重载其两个静态函数forward(ctx, input)
和backward(ctx, input_grad)
实现底层的前向计算和反向计算逻辑。在正向计算中调用 ctx.save_for_backward(...)
存储反向梯度计算所需的中间变量(通常包含输入);在反向计算中通过ctx.saved_tensors
来获取正向计算传递过来的中间变量。foward
和backward
函数组成了关于某个特定计算的正向计算和反向梯度计算节点对。
变量节点的grad_fun
指向变量对应的反向梯度计算节点,而计算节点的next_functions
属性以列表方式,存储参与计算变量节点的其它输入节点所对应的反向梯度计算节点。例如,存储在节点e.grad_func
的乘积反向梯度节点MultBackward
,其属性next_functions=[(MultiBackward, 0), (AccumulateGrad, 0)]
。当前变量节点为e
,参与计算该节点的输入变量节点有c
和d
。第一个元素MultBackward
即为c
节点的反向梯度计算节点(c
是通过乘积计算得到,梯度计算函数为乘积反向梯度计算类型),其引用存储在c.grad_fun
中;d
节点是参与梯度计算的叶子节点,即反向梯度计算的终止点,系统会自动附上AccumulateGrad
梯度累积计算节点,更新该节点的当前梯度值。此即为next_functions
属性列表中第二项。
某些正向计算节点可能输出多个变量,例如:
xyz = torch.tensor[(1.0, 2.0, 3.0), requires_grad=True]
x, y, z = xyz.unbind()
out = x*z
out.backward()
unbind()
会输出三个变量。为了确定反向梯度计算针对哪个输出变量,next_functions
每个元素包含一个索引值,描述求导变量在原始变量中的位置。例如,在计算x
和z
相对xyz
的梯度时,需要记录x
和z
在原始变量xyz
中的位置(索引位置影响梯度的计算,例如=[1.0, 0, 0]
,=[0, 0, 1.0]
)。存储方式为out.grad_fun.next_functions=[(UnbindBackward, 0), (UnbindBackward, 2)]
,其中索引0
和2
对应x
和z
位置。
在上述动态计算图中,黑线代表正向计算的数据流,蓝线代表反向梯度计算的数据流。由图可知,反向梯度计算时,并不是所有节点会接受反向梯度计算的更新,例如节点b
和c
。回顾上文,只有requires_grad=True
的叶子节点(is_leaf=True
)才需要计算梯度值。由于变量b
的requires_grad=False
,而c
节点不是叶子节点,因此无需计算其梯度计算。
反向梯度计算始于e.backward()
的调用。变量e
为标量,使用默认值torch.tensor(1.0)
作为参数即可。根据e.grad_fun
的存储引用,调用MultBackward
梯度计算函数,并将默认值1.0
传递给该计算节点。该函数分别计算c
和d
的梯度值为4.0(=d)
和6.0(=c)
,与输入值1.0
乘积后,分别传递给节点c
和d
的梯度计算函数。两个节点的梯度计算函数引用存储在e.next_functions
列表中,其中第一项对应c
节点的梯度函数,第二项对应节点d
的梯度函数。
节点c
非叶子节点,无需计算其梯度值。通过引用梯度函数c.grad_fun
分别计算c
对输入节点(b
和a
)的梯度,将梯度流进一步往下传递。其中输入节点b
的requires_grad=False
,因此无需计算梯度(对应梯度函数为None
);对节点a
的梯度值为3.0(=b)
,通过链式法则,乘以上一步传入的梯度值4.0
,累积输出梯度值12.0
。a
为叶子节点并且requires_grad=True
,需计算该节点梯度值。通过缺省AccumlateGrad
梯度计算函数,将累积梯度值12.0
更新到节点a
的当前值('0.0'),得到a
节点在计算图上本次完整迭代后的最终值12.0
。
节点d
为requires_grad=True
的叶子节点,需计算其梯度值。通过缺省的梯度累加函数AccumulateGrad
,将上一节点传递进来的梯度值6.0
,叠加到当前的值(0.0
)并更新到 d.grad
中。
至此,完成梯度在计算图上的一次完整迭代计算。所有需要计算梯度的节点(a
、b
)都将得到更新的梯度值。多次迭代运行计算图,节点的梯度值会进行累加计算。为了降低存储量,PyTorch在每次调用backward()
后,中间计算的buffer
已经清除(网络训练中每次min-batch迭代都会基于新数据构建一个新的计算图,因此一次计算完成更新权重梯度后,默认清除中间结果,节省存储空间),在同一批节点上无法进行第二次backward()
调用。通过设置retain_graph=True
可以保留计算图中间结果,实现多次调用。例如:
a = torch.tensor(2.0, requires_grad=True)
b = torch.tensor(3.0)
c = a * b
d = torch.tensor(4.0, requires_grad=True)
e = c * d
e.backward(retain_graph=True) # retain computational graph buffers
print(a.grad) # a.grad = 12.0
e.backward()
print(a.grad) # a.grad = 24.0
每一次迭代,都会执行=12.0
计算,该梯度流通过累加函数AccumulateGrad
增加到当前梯度值上(a.grad+=12.0
)。
Notes on PyTorch Internals系列文章
Notes on PyTorch Internals I
Notes on PyTorch Internals II
Notes on PyTorch Internals III
参考文献
[1] Adam Paszke, Sam Gross, etc. Automatic differentiation in PyTorch
[2] Vaibhav Kumar. PyTorch Autograd
[3] Elliot Waite. PyTorch Autograd Explained — In-depth Tutorial