2.单变量线性回归
1. 一元线性回归(模型描述)
常用符号:
m : 训练样本的数量
x : 输入变量/特征
y : 输出变量/预测的目标变量
(x, y): 表示一个训练样本
: 表示特殊训练样本/第i个训练样本
监督学习的工作过程:

2. 代价函数

在线性回归中我们要解决的是一个最小化的问题
Idea: 选择模型参数 , 使得对于任意的训练样本 (x, y), 尽可能接近 y
线性回归的整体目标函数:
代价函数:
数学定义:
代价函数也被称作平方误差函数,有时也被称为平方误差代价函数
平方误差代价函数可能是解决回归问题最常见的手段了
3. 代价函数理解
为了更好地使代价函数 可视化,先使用一个简化的 假设函数,即让

4.代价函数理解2

代价函数越小, 对应的假设函数确定的模型与 训练集中的数据拟合得越好
5. 梯度下降
梯度下降算法可以用于 代价函数以及更一般函数的 最小化
问题概述:
我们有一个函数 , 也许这是一个线性回归的, 也许是一个需要最小化的其他函数
我们需要一个算法,来最小化函数
梯度下降的思路:
1.开始给定 一些初始值, 初始值是什么其实并不重要,但通常的选择是将 初始化为0 (Start with some )
2.Keep changing to reduce until we hopefully end up at a minimum
梯度下降算法的定义:

进行梯度下降的时候一定要同时更新

6. 梯度下降理解
1. α 学习率
α(学习率),永远是一个正数,控制我们以多大的幅度更新参数
如果 α 太小,梯度下降会很慢
如果 α 太大,梯度下降可能会越过最低点,甚至无法收敛或者发散
2. 偏导数
如果 已经处在一个局部最优点,你认为下一步梯度下降会怎样?
局部最优点的导数是 0 ,如果已经在局部最优点,将不再改变
即使学习速率 α 保持不变,梯度下降法也可以收敛到局部最低点
在梯度下降法中,当我们接近局部最低点时,梯度下降法会自动采取更小的幅度;
这是因为当我们接近局部最低点时,根据定义,在局部最低点的导数等于零,所以
当我们接近局部最低点时,导数值会自动变得越来越小;
所以梯度下降将自动采取较小的幅度,这就是梯度下降的运行方式。
7. 线性回归 梯度下降
将梯度下降应用到线性回归中:将梯度下降和代价函数结合,得到线性回归算法,它可以用直线模型拟合数据
梯度下降算法:
repeat until convergence {
}
线性回归模型:
将梯度下降应用到最小化方差代价函数中,关键是导数项
推导过程:
线性回归算法:
repeat until convergence {
}
同时更新
说明: 线性回归的代价函数,是一个弓形函数,术语叫做凸函数,这个函数没有局部最优解,
只有一个全局最优解。当计算这种代价函数的梯度下降时,只要时使用梯度下降,
它总是会收敛到全局最优Batch梯度下降算法,意味着每一步梯度下降,我们都历遍了整个训练集的样本。
所以在梯度下降中,当计算偏导数时,我们计算总和。在每一个单独的梯度下降
中,我们最终计算m个训练样本的总和。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· 葡萄城 AI 搜索升级:DeepSeek 加持,客户体验更智能
· 什么是nginx的强缓存和协商缓存
· 一文读懂知识蒸馏