线性回归

一、回归

回归:是指一类为一个或多个自变量与因变量之间关系建模的方法,通常用来表示输入与输出的关系(连续值)

 

二、线性回归

       自变量x与因变量 y 之间的关系是线性的,即y可以表示为 x 中元素的加权和,这里通常允许包含观测值的一些噪声

 

三、线性模型

     

 

 

式子中:w 称为权重;b为偏置

1、权重决定了每个特征对我们预测值的影响。偏置是指当所有特征都取值为0时,预测值应该为多少。

2、 严格来说,式子是输入特征的一个仿射变换(affine transformation)。仿射变换的特点是通过加权和对特征进行线性变换(linear transformation),并通过偏置项来进行平移(translation)

3、线性回归的目标是找到一组权重向量 w 和偏置 b。当给定从X的同分布中取样的新样本特征时,找到的权重向量和偏置能够使得新样本预测标签的误差尽可能小

4、在我们开始寻找最好的 模型参数(model parameters)w 和 b 之前,我们还需要两个东西:(1)一种模型质量的度量方式;(2)一种能够更新模型以提高模型预测质量的方法。

 

四、损失函数

1、损失函数:能够量化目标的实际值与预测值之间的差距

2、样本 𝑖 的预测值为 𝑦̂ (𝑖),其相应的真实标签为 𝑦(𝑖) 。平方误差如下

       

3、为了度量模型在整个数据集上的质量,我们需要计算在训练集n个样本上的损失误差均值

     

4、在训练模型时,我们希望寻找一组参数 (𝐰,𝑏w∗,b∗),这组参数能最小化在所有训练样本上的总损失

    

 

五、小批量随即梯度下降

1、它通过不断地在损失函数递减的方向上更新参数来降低误差

2、最简单的用法是计算损失函数(数据集中所有样本的损失均值)关于模型参数的导数(在这里也可以称为梯度),但是在执行中会非常慢,因为每一个更新数据库都需要遍历整个数据集

3、为解决以上问题,可以在每次计算更新时随机抽取一小批样本,这就是小批量随机梯度下降

4、随机梯度下降步骤

  • 随机抽样一个小批量B
  • 计算小批量的平均损失关于模型参数的导数
  • 将梯度乘以一个预先确定的正数𝜂η,并从当前参数的值中减掉

      

 

 

 

 

 

 

 

 

 

5、公式介绍

  • |B| 表示每个小批量中的样本数,这也称为批量大小
  • η 表示学习率
  • 批量大小和学习率的值通常是手动预先指定,而不是通过模型训练得到。这种可以调整但不在训练过程中更新的参数被称为超参数
  • 调参就是选择超参数的过程

 

五、神经网络图

对于线性回归,每个输入都与每个输出(在本例中只有一个输出)相连,我们将这种变换( 输出层)称为 全连接层

 

posted @ 2021-07-26 14:59  小秦同学在上学  阅读(514)  评论(0编辑  收藏  举报