吴恩达机器学习-随堂笔记03
4.1 多元线性回归
4.2 多元梯度下降法
4.3 特征缩放
均值归一化
将梯度下降的速度变得更快, 收敛所需的迭代的次数更少,就是特征缩放。
4.4 学习率(Learning Rate)α
只要学习率足够小,每次迭代之后代价函数J(θ)都会下降。但是α过小,也将导致代价函数下降速度缓慢。
α过大的话将导致如上图红色部分,出现代价函数上升的情况(在函数无误的情况下),同样导致收敛缓慢。
4.5 Normal Equation 正规方程
仅对于线性回归模型,相较于梯度下降,无需选择α,也不需要多次迭代。
此处只需要记住公式使用即可。
但是由于特征数的增加,该公式的计算将会耗费较大的计算资源,“实现逆计算的代价以矩阵维度的三次方增长。”
4.6 正规方程在矩阵不可逆情况下的处理方式
两种情况可能出现不可逆矩阵:
-
出现多余特征;————删除多余特征(互为线性函数)
-
特征设置过多,比如:训练样本数m<特征数n;————正则化
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具