线性回归学习笔记

线性回归

给出(x1,y1),...(xn,yn),xiRk,yiR

假设:wRk,bR,f(x)=xTw+b

损失函数:h(xi)=(f(xi)yi)2(一个点),Ls(w,b)=Σi=1n(f(xi)yi)2

为了更好地用矩阵的语言表示,现令x^iT=(1,xiT),w^T=(b,wT),再用x^i代替xi,用wT代替w。现在f(xi)=xiTw,令X=(x1T...xnT)XwRn,则有:||xwy||2=Σi=1n((xw)iyi)2=Σi=1n(xiTwyi)2

这样就可以把线性回归等同于一个优化问题:minwRk||Xwy||2。令h(w)=||Xwy||2,如果从内积的角度看(很显然最后的Loss应该是一个数),等价于(Xwy,Xwy)=(Xwy)T(Xwy)=((Xw)TyT)(Xwy)=(wTXTyT)(Xwy)=wTXTXw2wTXTy+yTy

作为一个多元函数,需要求多次偏导数:

利用x(xTAx)=2Ax,x(xTy)=y(二次型求偏导),则w(h)=2XTXw2XTy,令其等于0,等价于(XTX)w=XTy。其中(XTX)至少是半正定的(半正定与正定的区别在于其是否是一个满秩的矩阵)。如果XTX正定可逆,则可以把w解出来:w=(XTX)1(XTy),因此线性回归是可以有闭式解的(但也是有比较严格的条件的)。

特殊情况:X本身是可逆方阵,w=(XTX)1(XTy)=X1(XT)1XTy=X1y。此时对于Xw=yw是有解的,因此给定的数据本身就在同一个超平面上,损失函数自然等于0。一般情况下,给定的数据点的个数要远远超过w的维数,因此可以避免过度拟合。

优化:h(w)=(Xwy)TΩ(Xwy),其中Ω是正定矩阵,再令w(h)=0,得到w=(XTΩX)1(XTΩy)作为闭式解。

posted @   脂环  阅读(70)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!
历史上的今天:
2021-04-06 Codeforces Round #712 (Div. 2) A~C
2021-04-06 macOS下使用bits/stdc++.h万能头文件
2021-04-06 第 45 届国际大学生程序设计竞赛(ICPC)亚洲区域赛(昆明)J. Parallel Sort(思维/构造)
2020-04-06 牛客小白月赛13 小A买彩票(DP+分数约分)
点击右上角即可分享
微信分享提示
主题色彩