【机器学习笔记】一元线性回归原理、公式及代码实现
1|0概要
线性回归是逻辑回归的基础,逻辑回归又是神经网络的组成部分,用于解决2分类问题
线性回归是所有算法的基础
2|0线性关系 与 非线性关系
概念:
- 线性关系是指变量之间的关系是一次函数,一个自变量x和因变量y的关系表示为一条直线,两个自变量和因变量y的关系表示为一个平面
- 非线性关系是指一个自变量x和因变量y的关系表示为一条曲线,两个自变量和因变量y的关系表示为一个曲面
一个自变量x就等同于一个特征,拟合的时候就是一条线,而如果是多个特征,则是拟合面
线性关系可以理解为就是一次函数,不管有多少个自变量
示例:
- 线性关系:
- 非线性关系:
3|0回归问题
概念:预测一个连续问题的数值,
线性回归主要用于处理回归问题,少数情况用于处理分类问题
4|0一元线性回归
概念:用来描述自变量和因变量都只有一个(一个自变量称为一元)的情况,且自变量和因变量之间呈线性关系(一次函数)的回归模型
表示形式:
只有x一个自变量,y为因变量,a为斜率,也称为x的权重,b为截距
作用:通过一元线性回归模型寻找到一条合适的直线,最大程度地拟合自变量 x 和因变量 y 之间的关系,这样我们知道一个 x 的值,就可以通过这条拟合的直线找到最可能的 y
学习一元线性模型的过程就算通过训练数据得到合适的a和b的过程,也就是该一元线性模型的参数即为 a 和 b,当输入一个新的测试数据点的时候,我们可以通过训练好的模型来进行预测。
4|1模型好坏评价方式
目标:预测值与真实值之间的差距越小越好,距离越小,代表我们的模型效果越好
很自然的一个想法是:对于每一个点(x)都计算
然后将所有的值进行累加最后除以样本数,这样是为了减少样本对于结果的影响。
公式:
这个公式存在的问题:预测出来的值有可能大于真实值也可能小于真实值,这将导致误差被虚弱,正负中和导致最终累加误差接近于 0
改进:对每个点的误差计算取绝对值,也就是,之后我们再进行累加
问题:后续的误差计算以及求导问题
绝对值函数,比如在x=0处连续,但是在x处左导数为-1,右导数为1,不相等,可导函数必须光滑,所以函数在x=0不可导
进一步优化:对于每个点计算得到的误差,对这个结果做一次平方,并且为了忽略样本数的影响,取平均值
公式:
4|2最小二乘法
由于
代入上一节的公式中
通过最小二乘法来寻找最优的参数 a 和 b,从而使这个表达式尽可能的小
概念:一种数学优化技术,通过最小化误差的平方和来寻找最优的参数
公式:
4|3代码实现
一元线性回归模型仅处理向量,而不能处理矩阵
进行一定的封装以后:
此处衡量模型分数的公式为:
__EOF__

本文链接:https://www.cnblogs.com/seansheep/p/15890259.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角【推荐】一下。您的鼓励是博主的最大动力!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!