吴恩达《机器学习》课程总结(4)_多变量线性回归
Q1多维特征
上图中列数即为特征的个数,行数是样本数。函数假设如下:
其中x0=1。
Q2多变量梯度下降
和单变量的损失函数相同:
其中,
求导迭代如下:
Q3梯度下降法实践1-特征缩放
特征之间的尺度变化相差很大(如一个是0-1000,一个是0-5),梯度算法需要非常多次的迭代才能收敛,如下图所示:
方法:将各个特征缩放至大致相同的尺度,最简单的方法就是特征减去均值除以方差。如下所示:
Q4梯度下降法实践2-学习率
学习率过小收敛慢,学习率过大可能导致无法收敛。
通常通过三倍放大来考虑学习率的设置,比如:0.01,0.03,0.1,0.3,1,3,10……。
Q5特征和多项式回归
比如一个二次模型:
或者三次模型:
可以通过创建新特征(即令):
从而将模型转换成线性模型。
Q6正规方程
前提:对于某些线性回归问题,使用正规方程求解一步到位(导数为零等式求解)。如下所示
直接令
。
参数的解直接为:
(X包含x0=1)。(其中X是第一列为1剩下的为行为example列为feature的值)
梯度下降与正规方程的比较:
Q7正规方程及不可逆性:
(1)特征之间互相不独立时不可逆;
(2)样本数少于特征数时不可逆。
词汇
1 2 3 4 | multivariate linear regression 多元线性回归 feature scaling ---特征缩放 non-linear function ---非线性函数 normal equation ---正规方程 |
作者:你的雷哥
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须在文章页面给出原文连接,否则保留追究法律责任的权利。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 25岁的心里话
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 一起来玩mcp_server_sqlite,让AI帮你做增删改查!!
· 零经验选手,Compose 一天开发一款小游戏!
2018-07-25 pandas基础(3)_数据处理
2018-07-25 pandas基础(2)_多重索引
2018-07-25 傅里叶变换之展示图片轮廓
2018-07-25 pandas基础(1)_Series和DataFrame