神经网络数学原理(3)正则项和超参数

在上一节【神经网络数学原理(2)反向传播】中已经讲述如何通过反向传播来优化权重的过程和数学原理,本章主要讲述参数优化,优化参数是机器学习和深度学习中至关重要的过程,其目的是通过调整模型的权重、偏置和超参数来提升模型的准确性和泛化能力。优化的最终目标是使模型能够从训练数据中学习到有效的信息,同时避免过拟合或欠拟合,确保模型在未见过的数据上也能表现良好。通过选择合适的优化算法和调节超参数,能够提高训练效率,达到更高的预测准确度。

正则化

正则化(Regularization)是机器学习中用于防止模型过拟合的重要技巧。通过在损失函数中加入额外的项(即正则项),可以约束模型的复杂度,促使模型在训练时不仅仅学习到数据中的噪声或偶然性特征,而是学习到更具泛化能力的规律。

假如给定一个线性模型

其中:

  • ypred 是预测值。
  • W 是权重(或系数),x 是输入特征,是偏置项。

 均方误差损失函数

 其中,ypred(i)  是第 i 个样本的预测值,y(i) 是第 i 个样本的真实值,N 是样本数量。

问:假设存在一个W使损失函数得值等于0,那么这个W是唯一的吗?如果存在多个W使 Loss=0,那么我们应该选择哪个?

如果损失函数 L(W,b)=0  对于多个权重  都成立,这通常意味着存在多个解,它们都能完美地拟合训练数据(即使得预测值与真实值完全一致)。这种情况通常出现在以下几种情况:

  1. 欠定问题:当训练数据的特征数量少于或等于模型参数数量时(例如,数据维度很低,或者模型过于复杂),可能存在多个  和 b 的组合使得损失函数为零。

  2. 过拟合:如果模型过于复杂(例如,使用了过多的参数,或者数据量不足),模型可能会记住训练数据的每一个细节,而不仅仅是捕捉到数据的潜在规律。这样,在训练数据上可能有多个权重组合可以使得损失函数等于零,但它们并不一定是泛化能力最强的解。

如何选择最优的 W

  1. 正则化

    • 为了避免过拟合,常常会引入正则化项(如 L1、L2 正则化),即在损失函数中加入 W 的惩罚项。例如,L2 正则化(权重衰减)使得较大的权重值产生较大的惩罚,从而限制模型过于复杂的解。
    • 带有正则化的损失函数可以写成:

      其中,λ 是正则化参数,控制着正则化的强度。通过这个正则项,我们可以选择使 L(W,b) 较小的同时,避免  变得过大,减少不必要的复杂性。
  2. 交叉验证

    • 交叉验证是一种有效的选择模型的方法。即使损失函数在训练集上为零,我们也需要验证模型在未见过的数据(验证集或测试集)上的表现。如果多个解在训练集上表现相同,但在验证集上表现不同,我们可以选择在验证集上表现更好的解。
  3. 模型复杂度控制

    • 如果存在多个解都使得损失为零,我们还需要关注模型的复杂度。通常,通过减少参数的自由度(例如,减少隐藏层的节点数、增加正则化等),可以找到更简单且更有泛化能力的模型。
  4. 梯度检查和收敛分析

    • 在优化过程中,通过分析训练过程中的梯度变化,可以帮助选择最优的解。例如,梯度下降可能会收敛到某些局部最优解或“平坦区域”,这时我们可以通过动态调整学习率或使用不同的优化算法(如Adam)来避免陷入这些区域。

引入正则化的目的是为了 防止过拟合,即防止模型在训练数据上表现得过于优秀,但在新数据(测试数据)上表现较差。

1. 为什么会过拟合?

  • 过拟合是指模型太过复杂,以至于它在训练数据上能够完美拟合每一个样本,但它却没有从数据中学到一般化的规律,因此在未见过的测试数据上表现不好。
  • 复杂模型(例如非常大的神经网络或多项式回归模型)有更多的自由度,它可以通过调整很多参数去准确地匹配训练数据。但这种拟合往往是对训练数据噪声或异常值的过度拟合,而不是对数据中潜在规律的捕捉。

举个例子:

  • 假设你用一个高阶多项式拟合数据。随着阶数的增高,拟合的曲线在训练集上的误差变得非常小,甚至为零。但这种模型会对训练集中的噪声数据点也产生强烈的响应,导致它在新数据上的表现非常糟糕,因为它已经学到了数据中的“偶然性”而非规律性。

2. 正则化的原理

正则化通过 惩罚 参数的过大值来降低模型的复杂度,从而避免过拟合。

数学上,正则化的方式:

  • 正则化通常是通过在损失函数中 增加惩罚项,来控制模型的复杂度,常见的有 L2 正则化(岭回归)L1 正则化(lasso回归)
  • L2 正则化 中,惩罚项是参数的平方和  ,即所有权重参数的平方和。
  • L1 正则化 中,惩罚项是参数的绝对值和 ,即所有权重参数的绝对值和。

2.1 L2 正则化

L2 正则化的惩罚项是权重的 平方和,即:

L2 正则化的作用是:如果某些权重 Wj 过大,它会受到惩罚,促使模型去 减小这些权重。因此,L2 正则化有助于 平滑 模型的决策边界。

2.2 L1 正则化

L1 正则化的惩罚项是权重的 绝对值和,即:

L1 正则化的作用是促使某些权重 Wj  变得 稀疏,即权重接近于零,导致模型中 不重要的特征被忽略,这有助于模型 特征选择

 权重过大的不利影响

当神经网络中的W中某一个权重相对于其他过大时,可能会导致某些特征对最终结果的影响变得异常显著,而其他特征的贡献可能被忽略。下面是几种场景的现象:

1. 激活函数饱和

  • 如果权重过大,输入信号会变得非常大,特别是在使用像 sigmoidtanh 这样的激活函数时。它们在输入很大或很小的时候,会进入饱和区间,导致梯度接近于零。这会使得这些神经元在反向传播中几乎没有梯度更新,进而影响到权重的学习。

  • sigmoid 为例:如果输入值很大(例如,权重乘以输入值后的结果),sigmoid(x) 会接近于 1,导致导数接近于 0。因此,梯度更新变得非常小,导致神经网络的某些权重几乎无法更新,从而“冻结”某些特征的学习。

  • 解决办法:使用其他激活函数,如 ReLU(对于正输入有较大梯度),或者进行权重正则化来防止权重过大。

2. 某些特征的影响过大

  • 当某个特征的权重特别大时,它会在计算过程中主导结果,可能会把其他特征的影响“压制”掉。例如,假设网络的某个输入特征对应的权重非常大,那么这个特征即使变化很小,也会对输出结果产生很大的影响,其他特征的微小变化可能无法影响到最终的预测结果。学习到的模型过于依赖少数特征,可能不具备良好的泛化能力。

  • 举个例子:假设你在训练一个模型预测房价,特征包括房子的面积、楼层、年龄、地段等。如果某个特征(比如房子的面积)对应的权重大,而其他特征(如楼层、年龄等)对应的权重很小,那么即使房子的楼层或年龄发生变化,模型的预测值可能依然几乎不变。这样,模型可能对某些特征的学习很不平衡,忽略了其他特征的重要性。

3. 梯度爆炸问题

  • 权重过大会导致梯度在反向传播时变得异常大,进而引发梯度爆炸(Gradient Explosion)。这种情况下,权重更新的步长变得非常大,模型的训练不稳定,可能导致参数发散,而不是有效地优化模型。

  • 解决办法:可以使用梯度裁剪(gradient clipping)来限制梯度的大小,或者通过正则化手段(例如 L2 正则化)来抑制过大的权重。

正则化防止权重过大

  • L2 正则化(权重衰减):L2 正则化通过在损失函数中加入 ∥W∥²(权重的平方和)项,强迫网络学习较小的权重,从而避免某些权重过大对模型产生不必要的影响。这样可以使模型在训练过程中更加平衡,避免某个特征的权重过大。

  • L1 正则化:L1 正则化通过惩罚稀疏性,鼓励模型将一些权重缩小为零,这样可以帮助特征选择,防止某些不重要的特征被赋予过大的权重。

超参数

超参数(Hyperparameters)是机器学习模型中需要通过外部指定的参数,它们与模型的训练过程密切相关,并且对最终的模型性能有着重要的影响。与模型的参数(如权重和偏置)不同,超参数并不是通过数据训练得到的,而是我们在训练前手动设置的。

超参数的重要性

超参数的选择直接影响到模型的训练效率、性能和泛化能力。例如,在神经网络中,超参数包括学习率、批次大小、隐藏层的数量和大小、激活函数等。如果超参数选择得当,模型能够有效地学习数据的规律,获得较高的准确性和泛化能力。反之,不合适的超参数可能导致模型训练不收敛、过拟合或欠拟合。

常见的超参数

  1. 学习率(Learning Rate):控制每一步更新的幅度,决定了梯度下降法的步长。如果学习率过大,可能会导致跳过最优解;如果学习率过小,则会导致训练速度过慢。

  2. 批次大小(Batch Size):在一次训练迭代中,使用多少样本来计算梯度。较小的批次可能会增加训练的波动性,而较大的批次则能提供更稳定的更新,但需要更多的内存。

  3. 隐藏层的数量和神经元的数量:在深度神经网络中,隐藏层的数量和每层的神经元数量决定了模型的容量。过少的隐藏层可能无法捕捉数据的复杂性,过多则可能导致过拟合。

  4. 正则化参数(如 L2 正则化、Dropout 等):正则化超参数通过惩罚模型的复杂性,帮助减少过拟合。L2 正则化会在损失函数中加入权重的平方和,Dropout 则随机丢弃部分神经元来防止过拟合。

  5. 优化器(Optimizer):如 SGD(随机梯度下降)、Adam、RMSprop 等。不同的优化器有不同的更新规则和收敛速度,影响训练效率和稳定性。

  6. 激活函数(Activation Function):激活函数决定了神经网络中的非线性特性,常见的有 ReLU、Sigmoid、Tanh 等。

如何选择超参数

选择超参数的过程通常是机器学习中最具挑战性的任务之一,因为它需要在一个高维的搜索空间内寻找最优值。常见的超参数选择方法包括网格搜索随机搜索贝叶斯优化等。每种方法都有其独特的优缺点,选择合适的方法可以帮助提高模型的训练效率和性能。

1. 网格搜索(Grid Search)

网格搜索是一种通过穷举方式,在指定的超参数范围内试验所有可能的组合,并选出性能最佳的组合的方法。

  • 优点
    • 简单易懂,易于实现。
    • 如果对超参数空间的范围有明确的设定,能够确保不会漏掉潜在的最优解。
  • 缺点
    • 计算开销大,尤其是在超参数空间较大时,计算时间和资源消耗会急剧增加。
    • 在较高维度的空间中效率低,随着超参数数量的增加,搜索空间呈指数级增长,导致搜索非常缓慢。

2. 随机搜索(Random Search)

随机搜索是通过从超参数空间中随机采样多个组合,然后选择其中表现最好的一个方法。与网格搜索不同,它不要求穷举所有组合。

  • 优点
    • 相较于网格搜索,随机搜索更高效,尤其是当我们不清楚超参数空间的具体形态时。
    • 在高维空间中,能够更广泛地探索搜索空间,找到潜在的最优解。
    • 适用于超参数空间非常大的情况,能够节省计算资源。
  • 缺点
    • 不保证找到最优的超参数组合,可能会错过某些重要的细节。
    • 结果的稳定性较差,可能需要多次运行以保证选出的超参数是最优的。

3. 贝叶斯优化(Bayesian Optimization)

贝叶斯优化是一种基于贝叶斯理论的方法,通过建立超参数与性能之间的概率模型,不断优化超参数空间,选择最有可能提高模型性能的超参数。

  • 优点
    • 相较于网格搜索和随机搜索,贝叶斯优化能更高效地找到最优超参数组合,特别适合高维度、计算成本高的任务。
    • 能够通过较少的实验次数就找到有效的超参数,节省时间和计算资源。
  • 缺点
    • 需要更多的数学背景和实现复杂度,可能需要使用一些现成的优化库(如scikit-optimize)。
    • 对于超参数空间的建模比较复杂,并且在一些复杂的模型中可能效果不如预期。

4. 其他方法

  • 梯度优化法:有些方法通过将超参数视作一个优化问题,并通过梯度下降等算法来优化超参数。然而,这种方法并不适用于所有的超参数,尤其是那些离散的超参数。

  • 遗传算法:通过模拟自然选择过程来选择超参数,适合解决那些超参数空间极为复杂的任务。它结合了选择、交叉、变异等过程,不断优化超参数。然而,它的计算开销较大。

如何选择合适的方法

选择合适的超参数调优方法应根据任务的复杂性、计算资源的可用性以及对最优解的需求来决定:

  • 对于计算资源和时间有限的小型问题,可以尝试随机搜索或者网格搜索,尤其是在超参数空间较小的情况下。
  • 对于高维空间,尤其是深度学习模型,可以优先考虑贝叶斯优化,它能够在较少的实验次数内找到较优的超参数组合。
  • 如果计算资源充足,可以在较大的超参数空间中结合随机搜索贝叶斯优化来获得更稳定的结果。
posted @   Hi同学  阅读(23)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
点击右上角即可分享
微信分享提示