3、自动微分(求导、梯度)
x经过某些运算得到1个y,那么就出现了dy/dx,以及x→y的映射(y是如何由x运算得到的)。
dy/dx的获得需两步:y.backward() 、x.grad,即反向传播、求出梯度
x→y的映射,是Tensor对象的一个属性grad_fn:y.grad_fn
注意,反向传播会累加梯度,所以反向传播之前应该梯度清零
x=t.ones(2,2,requires_grad=True) #跟踪在x上的所有运算操作 y=x.sum() # 4. 注意y只有1个标量 y.grad_fn #y是由什么运算得到的,SumBackward0 at 0x2598370d948 #y对x微分,即梯度dy/dx y.backward() #反向传播 print(x.grad) #输出梯度 #反向传播会累加梯度,所以反向传播之前应该梯度清零 y.backward() print(x.grad) #输出梯度 y.backward() print(x.grad) #输出梯度 #梯度清零 x.grad.zero_() y.backward() #反传 print(x.grad) #输出梯度