线性模型——1.线性回归

目录

  1. 模型
  2. 策略:最小二乘法
  3. 算法:闭式解以及梯度下降法公式推导
  4. 正则化:Lasso和Ridge回归
  5. Numpy代码实现
  6. sklearn调用

模型
线性回归试图学得一个通过属性的线性组合来尽可能准确地预测实值输出标记的函数,即f(x)=wx+bw和b学得之后,模型就得以确定

策略
显然我们希望预测出的f(x)与y之间的差别越小越少,在回归任务中我们通常选择均方误差作为度量模型性能的标准,因此我们可以使试图让均方误差最小化,即

(w,b)=argmin(w,b)(i=1m(f(xiyi)))

,由此,我们也得到了线性回归的损失函数(目标函数)

算法
1.因为以上损失函数

E(w,b)=i=1m(f(xi)yi)

是关于w和b的凸函数,所以通过令导数为0可以求得最优解的闭式解,下面推导矩阵形式的闭式解

2.梯度下降法
但在实际情况中,更常用的方法是梯度下降法(gradient descent,GD)(待补充)

正则化
Numpy代码实现线性回归(待补充)

sklearn调用
(待补充)

参考资料
1.《机器学习》,周志华
2.《机器学习实战:基于Scikit-Learn、Keras和TensorFlow》(原书第二版)

posted @   daisy0726  阅读(86)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
点击右上角即可分享
微信分享提示