Pytorch_torch.nn.MSELoss

Pytorch_torch.nn.MSELoss

均方损失函数作用主要是求预测实例与真实实例之间的loss

loss(xi,yi)=(xi−yi)2

  • 函数需要输入两个tensor,类型统一设置为float,否则会报错,也可以在全局设置torch.set_default_tensor_type(torch.FloatTensor),也可以在计算时转换
loss=torch.nn.MSELoss()
c=torch.tensor([[1,2],[3,4]])
d=torch.tensor([[5,6],[7,8]])
loss(c.float(),d.float())
  • 单个tensor正常求即可,多个求其平均loss。

item()方法

如果tensor只有一个元素,调用item会将tensor转为python中scalars;如果不是一个元素,则会报错。

Pytorch_with torch.no_grad()

requires_grad默认为False,如果某个节点被设置为True,那依赖它的节点的改参数都为True。例如y=xw,y依赖w,w的改参数设置为True时,y的该参数也变为True。 Pytorch较早版本中,有volatile该参数的设定比requires_grad的级别要高,主要是为了使某节点不求导,但现在已经被弃用。现在功能已经被with torch.no_grad代替:

x=torch.tensor([1],requires_grad=True)
with torch.no_grad():
    y = x * 10
y.requires_grad ###False
#也可以使用 @torch.no_grad()
@torch.no_grad()
def ten_folder(x):
    return x * 10
z= ten_folder(x)
z.requires_grad #结果为False 
posted @ 2020-02-26 23:27  Cobby_baby  阅读(1814)  评论(0编辑  收藏  举报