线性回归 Linear Regression
线性回归的预设
-
线性
只能通过每个样本各维的线性组合获得预测结果,这使得函数很简单,但拟合能力较弱。
-
同方差性
每个样本的方差不变。方差不同会使得拟合函数对某些数据敏感性有差异。
-
独立性
每个样本独立于其他样本
-
固定特征
特征数是固定的
-
非多重共线性
特征直接不能存在线性关系
常用基函数
; ; ; ; ; 。
比如对
随着多项式最大次数的提高,通过基函数转换而来的新向量的维数呈几何式增长。
最小二乘估计和最小二乘反演
依照
值得注意的是,在左逆中
这是因为左逆中样本数量通常远大于特征数量,我们希望
而右逆中则是特征数量大于样本数量,
梯度下降法
使用 Mean-Squared-Error (MSE) 作为损失函数,损失为
对每个样本损失
令
也可使用
由所使用的训练集的大小,可以区分出三种梯度下降法:BGD、SGD、Mini Batch GD。
- BGD 需要提前获得所有训练集,但是对于某些模型,需要边训练边使用,在使用的过程中收集数据,而且一般数据集也是比较大的;
- SGD 是边训练边使用的模式,随着训练集的增加慢慢学习,因为不能获得所有数据所以无法计算
; - Mini Batch GD 接近 SGD,但是使用每次训练时更大的数据集。
如果在 SGD 或 Mini Batch GD 尝试用不完全的训练集来计算
递归最小二乘法
使用递归最小二乘则可以使用
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了