1. `torch.Tensor`一个多维数组,支持诸如`backward()`等的自动求导操作,同时也保存了张量的梯度。
  2. `nn.Module `:神经网络模块。是一种方便封装参数的方式,具有将参数移动到GPU、导出、加载等功能。
  3. `nn.Parameter `:- 张量的一种,当它作为一个属性分配给一个`Module`时,它会被自动注册为一个参数。
  4. `autograd.Function`:实现了自动求导前向和反向传播的定义,每个`Tensor`至少创建一个`Function`节点,该节点连接到创建`Tensor`的函数并对其历史进行编码。
  5. 损失函数:一个损失函数接受一对(output, target)作为输入,计算一个值来估计网络的输出和目标值相差多少。nn包中有很多不同的[损失函数](https://pytorch.org/docs/stable/nn.html)。`nn.MSELoss`是比较简单的一种,它计算输出和目标的均方误差(mean-squared error)。

 

定义一个神经网络处理输入,计算损失更新网络权重,例如:

  1. `output = net(input)
  2. criterion = nn.MSELoss()
  3. loss = criterion(output, target)
  4. print(loss)

 

https://www.w3cschool.cn/pytorch/pytorch-64gk3kt5.html

posted on 2022-06-12 17:43  风生水起  阅读(30)  评论(0编辑  收藏  举报