Pytorch中norm(几种范数norm的详细介绍)

1.范数(norm)的简单介绍

概念:

距离的定义是一个宽泛的概念,只要满足非负,自反,三角不等式就可以称之为距离。范数是一种强化了的距离概念,它在定义上比距离多了一条数乘的运算法则。有时候为了便于理解,我们可以把范数当作距离来理解。

在数学上,范数包括向量范数和矩阵范数,向量范数表征向量空间中向量的大小,矩阵范数表征矩阵引起变化的大小。

一种非严密的解释就是,对应向量范数,向量空间中的向量都是有大小的,这个大小如何度量,就是用范数来度量的,不同的范数都可以来度量这个大小;对于矩阵范数,学过线性代数,通过运算AX = B ,可以将向量X变化为B,矩阵范数就是来度量这个变化大小的。

1.1 L-P范数

与闵可夫斯基距离的定义一样,L-P范数不是一个范数,而是一组范数,其定义如下:

根据P的变化,范数也有着不同的变化,一个经典的有关P范数的变化图如下:

上图表示了p从无穷到0变化时,三维空间中到原点的距离(范数)为1的点构成的图形的变化情况。以常见的L-2范数

(p=2)为例,此时的范数也即欧式距离,空间中到原点的欧式距离为1的点构成了一个球面。

1.2 L0范数

当P=0时,也就是L0范数,由上面可以,L0范数并不是一个真正的范数,它主要被用来度量向量中非零元素的个数。

1.3 L1范数

L1范数是我们经常见到的一种范数,它的定义如下:

表示向量x中非零元素的绝对值之和。

L1范数有很多的名字,例如我们熟悉的曼哈顿距离,最小绝对误差等。使用L1范数可以度量两个向量间的差异,如绝对误差和。

1.4 L2范数

L2范数是我们最常见最常用的范数了,我们用的最多的度量距离欧式距离就是一种L2范数,它的定义如下:

Euclid范数(欧几里得范数,常用计算向量长度),即向量元素绝对值的平方和再开放,pytorch调用函数norm(x,2)。

像L1范数一样,L2也可以度量两个向量间的差异,如平方差和:SSD

L2范数通常会被用来做优化函数的正则化项,防止模型为了迎合训练集而过于复杂造成过拟合的情况,从而提高模型的泛化能力。

1.5 无穷范数

即所有向量元素绝对值中的最小值,matlab调用函数norm(x,-inf)

2.矩阵范数

2.1 1-范数

列和范数,即所有矩阵列向量绝对值之和的最大值,matlab调用函数norm(A,1)

2.2 2-范数

对于实矩阵A,它的谱范数定义为:

其中,eig(X)为计算方阵X特征值,它返回特征值向量:谱范数,即A'A矩阵的最大特征值的开平方。matlab调用函数norm(x,2)。

2.3 无穷范数

行和范数,即所有矩阵行向量绝对值之和的最大值,matlab调用函数norm(A,inf)。

2.4 F-范数

Frobenius范数,即矩阵元素绝对值的平方和再开平方,matlab调用函数norm(A,'fro')

2.6核范数

是A的奇异值,核范数即奇异值之和。

3.Pytorch中的x.norm(p=2,dim=1,keepdim=True)的理解

3.1 方法介绍

代码:x.norm(p=2,dim=1,keepdim=True)

功能:求指定维度上的范数

函数原型:返回输入张量给定维dim上每行的p范数

torch.norm(input,p,dim,out=None,keepdim=False)  ->Tensor

注:范数求法:对N个数据求p范数

3.2函数参数

input(Tensor)  -输入张量

p(float)  - 范数计算中的幂指数值

dim(int)  - 缩减的维度,dim=0是对0维度上的一个向量求范数,返回结果数量等于其列的个数,也就是说有多少个0维度的向量,将得到多少个范数.dim=1同理。

out(Tensor,optional)  - 结果张量

keepdim(bool)  - 保持输出的维度。当keepdim = False时,输出比输入少一个维度(就是指定的dim求范数的维度)。而keepdim = True时,输出与输入维度相同,仅仅时输出在求范数的维度上元素个数变为1。这也是为什么有时我们把参数中的dim称为缩减的维度,因为norm运算之后,此维度或者消失或者元素个数变为1.

3.3实例演示

import torch                                           
import numpy as np                                     
data = torch.tensor([                                  
             [1., 2., 3., 4.],                         
             [ 2., 4., 6., 8.],                        
             [ 3., 6., 9., 12.]                        
         ])                                            
print(torch.norm(data,p=2,dim=1,keepdim=True) )#按行        

输出:

tensor([[ 5.4772],
        [10.9545],
        [16.4317]])
print(torch.norm(data,p=2,dim=0,keepdim=True) ) #按列     

输出

tensor([[ 3.7417,  7.4833, 11.2250, 14.9666]])

3.2.2 keepdim参数

print(torch.norm(data,p=2,dim=1))                
print(torch.norm(data,p=2,dim=1,keepdim=False))  

输出:

tensor([ 5.4772, 10.9545, 16.4317])
tensor([ 5.4772, 10.9545, 16.4317])

可以看到输出少了一维,其实就是dim=1(求范数)那一维(列)少了,因为从4列变成1列,就是三行中求每一行的2范数,就剩下1列了,不保持这一维不会对数据产生影响。或者也可以这么理解,就是数据中每个数据有没有用[]扩起来。

不写keepdim,则默认不保留dim的那个维度

不写dim,则计算Tensor中所有元素的2范数

print(torch.norm(data,p=2))

输出

tensor(20.4939)

与上面一样的效果,默认是L2范数

torch.norm(data)

输出

tensor(20.4939)

首先,它对张量y每个元素进行平方,然后对它们求和,最后取平方根。

 

原文:https://blog.csdn.net/qq_46092061/article/details/121498557

 

posted @ 2023-03-06 12:50  sqsq  阅读(3580)  评论(0编辑  收藏  举报