PyTorch中MSELoss的使用
PyTorch中MSELoss的使用
参数
torch.nn.MSELoss(size_average=None, reduce=None, reduction: str = 'mean')
size_average
和reduce
在当前版本的pytorch已经不建议使用了,只设置reduction
就行了。
reduction
的可选参数有:'none'
、'mean'
、'sum'
reduction='none'
:求所有对应位置的差的平方,返回的仍然是一个和原来形状一样的矩阵。
reduction='mean'
:求所有对应位置差的平方的均值,返回的是一个标量。
reduction='sum'
:求所有对应位置差的平方的和,返回的是一个标量。
举例
首先假设有三个数据样本分别经过神经网络运算,得到三个输出与其标签分别是:
y_pre = torch.Tensor([[1, 2, 3],
[2, 1, 3],
[3, 1, 2]])
y_label = torch.Tensor([[1, 0, 0],
[0, 1, 0],
[0, 0, 1]])
如果reduction='none'
:
criterion1 = nn.MSELoss(reduction='none')
loss1 = criterion1(x, y)
print(loss1)
则输出:
tensor([[0., 4., 9.],
[4., 0., 9.],
[9., 1., 1.]])
如果reduction='mean'
:
criterion2 = nn.MSELoss(reduction='mean')
loss2 = criterion2(x, y)
print(loss2)
则输出:
tensor(4.1111)
如果reduction='sum'
:
criterion3 = nn.MSELoss(reduction='sum')
loss3 = criterion3(x, y)
print(loss3)
则输出:
tensor(37.)
在反向传播时的使用
一般在反向传播时,都是先求loss
,再使用loss.backward()
求loss
对每个参数 w_ij
和b
的偏导数(也可以理解为梯度)。
这里要注意的是,只有标量才能执行backward()
函数,因此在反向传播中reduction
不能设为'none'
。
但具体设置为'sum'
还是'mean'
都是可以的。
若设置为'sum'
,则有Loss=loss_1+loss_2+loss_3
,表示总的Loss
由每个实例的loss_i
构成,在通过Loss
求梯度时,将每个loss_i
的梯度也都考虑进去了。
若设置为'mean'
,则相比'sum'
相当于Loss
变成了Loss*(1/i)
,这在参数更新时影响不大,因为有学习率a
的存在。