在训练数据不够多时,或者overtraining时,常常会导致过拟合(overfitting)。正则化方法即为在此时向原始模型引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称。在实际的深度学习场景中我们几乎总是会发现,最好的拟合模型(从最小化泛化误差的意义上)是一个适当正则化的大型模型。
- 中文名
- 正则化方法
- 外文名
- regularization method
- 作 用
- 解决过拟合
- 常用领域
- 机器学习
通过向目标函数添加一个参数范数惩罚
项来降低模型的容量,是一类常用的正则化方法。将正则化后的损失函数记作
:
其中
权衡范数惩罚项的相对贡献,越大的αα对应越多的正则化。
通常情况下,深度学习中只对网络权重θθ添加约束,对偏置项不加约束。主要原因是偏置项一般需要较少的数据就能精确的拟合,不对其正则化也不会引起太大的方差。另外,正则化偏置参数反而可能会引起显著的欠拟合。 [1]
常用的L2参数正则化通过向目标函数添加一个正则项
,使权重更加接近原点。L2参数正则化方法也叫做权重衰减,有时候也叫做岭回归(ridge regression)。
L2参数正则化之后的模型具有以下总的目标函数:
与之对应的梯度为:
使用单步梯度下降更新权重,即执行以下更新:
换种写法就是:
我们可以看到,加入权重衰减后会引起学习规则的修改,即在每步执行通常的梯度更新之前先收缩权重向量(将权重向量乘以一个常数因子)。由于
和
都是大于0的数,因此相对于不加正则化的模型而言,正则化之后的模型权重在每步更新之后的值都要更小。
假设
是一个二次优化问题(比如采用平方损失函数)时,模型参数可以进一步表示为
,即相当于在原来的参数上添加了一个控制因子,其中λλ是参数Hessian矩阵的特征值。由此可见
当
时,惩罚因子作用比较小。
如图一所示,实线表示未经过正则化的目标函数的等高线,虚线圆圈表示L2正则项的等高线。在点
处这两个互相竞争的目标达到均衡。在横轴这个方向,从点
处开始水平移动,目标函数并没有增加太多,也就是在这个方向上目标函数并没有很强的偏好,因而正则化在这个方向上有较强的效果,表现为把
往原点拉动了较长的距离。另一方面,在纵轴这个方向上,目标函数对应远离
的移动很敏感,即目标函数在这个方向的曲率很高,因此正则化对于
的影响就较小。
在原目标函数的基础上增加L2范数惩罚,将原函数进行了一定程度的平滑化,这个可以从其梯度函数有所体现。
对于一类存在大量驻点(Stationary point,即梯度为0的点),增加L2范数意味着将原本导数为零的区域,加入了先验知识进行区分(几何上,意味着原本一个平台的区域向0点方向倾斜),这样可以帮助优化算法至少收敛到一个局部最优解,而不是停留在一个鞍点上。
通过限制参数
在0点附近,加快收敛,降低优化难度。回忆一下,对于一类常见激活函数,如Sigmoid,满足:单调有界。根据单调有界定理,对于任意小的
,我们可以取得足够大的
,使得
。换句话说,对于该变量,我们可以找到一个足够大的区域
使得其导数接近于0,这意味着通过梯度方法改进该变量会变得极其缓慢(回忆后向传播算法的更新),甚至受浮点精度等影响其收敛。那么,采用范数控制变量的大小在0附近,可以避免上述情况,从而在很大程度上可以让优化算法加快收敛。 [2]
L2权重衰减是权重衰减最常见的形式,我们还可以使用其他的方法限制模型参数的规模。 比如我们还可以使用L1参数正则化。
形式地,对模型参数
的L1正则化被定义为:
,即各个参数的绝对值之和。
接着我们将讨论L1正则化对简单线性回归模型的影响,与分析L2正则化时一样不考虑偏置参数。
我们尤其感兴趣的是找出L1和L2正则化之间的差异。与L2权重衰减类似,我们也可以通过缩放惩罚项
的正超参数
来控制L1权重衰减的强度。 因此,正则化的目标函数
如下所示
对应的梯度(实际上是次梯度):
其中
只是简单地取
各个元素的正负号。
观察上述等式,我们立刻发现L1的正则化效果与L2大不一样。 具体来说,我们可以看到正则化对梯度的影响不再是线性地缩放每个
;而是添加了一项与
同号的常数。使用这种形式的梯度之后,我们不一定能得到
二次近似的直接算术解(L2正则化时可以)。
由于
是一个大于0的数,因此L1参数正则化相对于不加正则化的模型而言,每步更新后的权重向量都向0靠拢。
特殊情况下,对于二次优化问题,并且假设对应的Hessian矩阵是对角矩阵,可以推导出参数递推公式为
,从中可以看出 当
i时,对应的参数会缩减到0,这也是和L2正则不同地方。对比L2优化方法,L2不会直接将参数缩减为0,而是一个非常接近于0的值。 [1]
-
通过上面的分析,L1相对于L2能够产生更加稀疏的模型,即当L1正则在参数w比较小的情况下,能够直接缩减至0.因此可以起到特征选择的作用,该技术也称之为 LASSO。
-
如果从概率角度进行分析,很多范数约束相当于对参数添加先验分布,其中L2范数相当于参数服从高斯先验分布;L1范数相当于拉普拉斯分布。
使用更多的样本数据训练模型可以获得更好的泛化性能,然而,实践中我们很难获得更多的训练数据。一种解决方法是人为创造一些合理的假数据并把它们添加到训练集。
这样的方法对于分类任务来说是最简单的。一个分类器需要有能力把一个复杂高维的输入
映射到单一类目的输出
,因此分类器需要对大量
的变换保持预测结果的不变,即对于相似的输入需要有相同的输出。因此,我们可以轻易地转换训练集中的
来生成新的
对。例如,对于图像识别任务来说,像素的部分平移、缩放、旋转操作并不会改变图片中物体对语义表达,因而我们可以使用这些操作来生存新对训练数据。数据集增强对于语音识别任务也是有效的。
另一种数据集增强的方法是向网络的输入层注入噪声。神经网络已被证明对噪声不是非常健壮。简单地将随机噪声施加到输入再进行训练可以改善神经网络的健壮性。对于某些模型,在模型的输入上添加方差极小的噪声等价于对权重施加范数惩罚(Bishop)。
研究表明,将噪声施加到网络的隐藏层也是有效的,这可以被看成是在多个抽象层上进行数据集增强。著名的Dropout方法可以看作是对隐藏层输出乘以一个噪声后输出到下一层。
一般情况下,噪声注入远比简单的收缩参数强大,特别是噪声被添加到隐藏单元时。
另一种正则化模型的噪声使用方法是将其直接添加到学习到的权重上。这项技术主要被用于循环神经网络的情况下。这种方法可以看作是权重的贝叶斯推断的一种随机实现。贝叶斯方法认为学习到的模型权重上不确定的,并且这种不确定性可以通过权重的概率分布来表示。添加噪音到学习到的权重上可以看着是反映这种不确定行的一种随机的、实用的方式。
在适当的假设下,施加噪声到权重可以被解释与传统的正则化形式等价,鼓励学习到的函数保存一定的稳定性。这种形式的正则化鼓励模型的参数进入到参数空间中相对较稳定的区域,在这些区域小的权重扰动对于模型的输出影响较小。
大多数数据集的标签yy都有一定错误,错误的
不利于最大化
。 避免这种情况的一种方法是显式地对标签上的噪声进行建模。 例如,我们可以假设,对于一些小常数
,训练集标记
是正确的概率是
,(以
的概率)任何其他可能的标签也是正确的。这个假设很容易就能解析地与代价函数结合,而不用显式地抽取噪声样本。 例如,标签平滑(label smoothing) 通过把确切分类目标从0和1替换成
和
,正则化具有
个输出的softmax函数模型。标准交叉熵损失可以用在这些非确切目标的输出上。 使用softmax函数和明确目标的最大似然学习可能永远不会收敛, 因为softmax函数永远无法真正预测0概率或1概率,因此它会继续学习越来越大的权重,使预测更极端。使用如权重衰减等其他正则化策略能够防止这种情况。标签平滑的优势是能够防止模型追求确切概率而不影响模型学习正确分类。这种策略自20世纪80年代就已经被使用,并在现代神经网络继续保持显著特色。
在半监督学习的框架下,
产生的未标记样本和
中的标记样本都用于估计
或者根据
预测
。
在深度学习的背景下,半监督学习通常指的是学习一个表示
。 学习表示的目的是使相同类中的样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集的样本应该被映射到类似的表示。在许多情况下,新空间上的线性分类器可以达到较好的泛化。这种方法的一个经典变种是使用主成分分析作为分类前(在投影后的数据上分类)的预处理步骤。
我们可以构建这样一个模型,其中生成模型
或
与判别模型
共享参数,而不用分离无监督和监督部分。 我们权衡监督模型准则
和无监督或生成模型准则(如
或
)。生成模型准则表达了对监督学习问题解的特殊形式的先验知识,即P(x)P(x)的结构通过某种共享参数的方式连接到
。通过控制在总准则中的生成准则,我们可以获得比纯生成或纯判别训练准则更好的权衡。 [3]
多任务学习是通过合并几个任务中的样例(可以视为对参数施加的软约束)来提高泛化的一种方式。额外的训练样本以同样的方式将模型的参数推向泛化更好的方向,当模型的一部分在任务之间共享时,模型的这一部分更多地被约束为良好的值(假设共享是合理的),往往能更好地泛化。
图二是深度学习中多任务学习的一个例子,网络中的输入层和第一个隐藏层是在多个任务之间共享的,上层的
和
(对应一个无监督学习任务)是不同任务特有的参数。这里假设
是对原始输入的某种公共的抽象表示,可以在多个任务间共享。
因为共享参数,其统计强度可大大提高(共享参数的样本数量相对于单任务模式增加的比例),并能改善泛化和泛化误差的范围。当然,仅当不同的任务之间存在某些统计关系的假设是合理(意味着某些参数能通过不同任务共享)时才会发生这种情况。
从深度学习的观点看,底层的先验知识如下:能解释数据变化(在与之相关联的不同任务中观察到)的因素中,某些因素是跨两个或更多任务共享的。例如,在出来图像识别相关的任务时卷积层和pooling层可以在多个任务间共享。 [4]
提前停止(Early Stopping)的策略是:在验证误差不在提升后,提前结束训练;而不是一直等待验证误差到最小值。该策略可以用于任意的模型,不限于深度学习。GBDT算法天然适合采用Early Stopping策略来确定需要训练多少颗子树,因为GBDT是一个加法模型,采用提前终止策略都不需要额外存储模型的副本。
有时我们需要一种方式来表达我们对模型参数适当值的先验知识。我们可能无法准确地知道应该使用什么样的参数,但我们根据领域和模型结构方面的知识得知模型参数之间应该存在一些相关性。
我们经常想要表达的一种常见依赖是某些参数应当彼此接近。考虑以下情形:我们有两个模型执行相同的分类任务(具有相同类别),但输入分布稍有不同。 形式地,我们有参数为
的模型A和参数为
的模型B。 这两种模型将输入映射到两个不同但相关的输出:
和
。
我们可以想象,这些任务会足够相似(或许具有相似的输入和输出分布),因此我们认为模型参数应彼此靠近:
应该与
接近。 我们可以通过正则化利用此信息。 具体来说,我们可以使用以下形式的参数范数惩罚:
。 在这里我们使用L2惩罚,但也可以使用其他选择。
正则化一个模型(监督模式下训练的分类器)的参数,使其接近另一个无监督模式下训练的模型(捕捉观察到的输入数据的分布)的参数。 这种构造架构使得许多分类模型中的参数能与之对应的无监督模型的参数匹配。
参数范数惩罚是正则化参数使其彼此接近的一种方式,而更流行的方法是使用约束:强迫某些参数相等。 由于我们将各种模型或模型组件解释为共享独立的一组参数,这种正则化方法通常被称为参数共享。和正则化参数使其接近(通过范数惩罚)相比,参数共享的一个显著优点是,只有参数(独立一个集合)的子集需要被存储在内存中。 对于某些特定模型,如卷积神经网络,这可能可以显著减少模型所占用的内存。
最流行和广泛使用的参数共享出现应用于计算机视觉的卷积神经网络中。 自然图像有许多统计属性是对转换不变的。 例如,猫的照片即使向右边移了一个像素,仍保持猫的照片。 CNN通过在图像多个位置共享参数来考虑这个特性。 相同的特征(具有相同权重的隐藏单元)在输入的不同位置上计算获得。 这意味着无论猫出当前图像中的第
列或
列,我们都可以使用相同的猫探测器找到猫。
参数共享显著降低了CNN模型的参数数量,并显著提高了网络的大小而不需要相应地增加训练数据。它仍然是将领域知识有效地整合到网络架构的最佳范例之一。
深度学习可以看着时一种表示学习(representation learning),比如卷积神经网络可以学习图像的不同层次的特征表示,word2vec学习词的Distributed representation,其共同特点是用隐层权重作为表示。
L1惩罚可以诱导稀疏的参数,即许多参数为零(或接近于零)。
表示的范数惩罚正则化是通过向损失函数
添加对表示的范数惩罚来实现的。 我们将这个惩罚记作
。 和以前一样,我们将正则化后的损失函数记作
:
其中
权衡范数惩罚项的相对贡献,越大的
对应越多的正则化。
通过上述方法,含有隐藏单元的模型在本质上都能变得稀疏。
集成化方法是一种通用的降低泛化误差的方法,通过合并多个模型的结果,也叫作模型平均。主要想法是分别训练几个不同的模型,然后让所有模型表决测试样例的输出。
经验:原始输入每一个节点选择概率0.8,隐藏层选择概率为0.5。
Bagging是一种常用的集成学习方法。Bagging的策略很多,例如不同初始化方法、不同mini batch选择方法、不同的超参数选择方法。