`torch.Tensor`:一个多维数组,支持诸如`backward()`等的自动求导操作,同时也保存了张量的梯度。
`nn.Module `:神经网络模块。是一种方便封装参数的方式,具有将参数移动到GPU、导出、加载等功能。
`nn.Parameter `:- 张量的一种,当它作为一个属性分配给一个`Module`时,它会被自动注册为一个参数。
`autograd.Function`:实现了自动求导前向和反向传播的定义,每个`Tensor`至少创建一个`Function`节点,该节点连接到创建`Tensor`的函数并对其历史进行编码。
损失函数:
一个损失函数接受一对(output, target)作为输入,计算一个值来估计网络的输出和目标值相差多少。
nn包中有很多不同的[损失函数](https://pytorch.org/docs/stable/nn.html)。`nn.MSELoss`是比较简单的一种,它计算输出和目标的均方误差(mean-squared error)。
定义一个神经网络处理输入,
计算损失更新网络权重,
例如:
`output = net(input)
criterion = nn.MSELoss()
loss = criterion(output, target)
print(loss)
https://www.w3cschool.cn/pytorch/pytorch-64gk3kt5.html