吴恩达机器学习(6) 多元梯度下降法
1. 多参数模型
存在多个参数,模型更加复杂,在求梯度下降时需要对每个参数求偏导数,再同时更新参数
2, 特征缩放
不同的特征值的数值范围不同,如下图所示,将特征值可视化后,将形成一个细长的椭圆。而在梯度下降过程中,将可能需要花费长时间、并可能进行波动才能收敛。
为了解决这个问题,可以采用归一化的思路,使其代价函数可视化效果解决于圆形,使特征值范围在-1~1之间。吴老师对于-3~3,-1/3~1/3都是可以接受的
3. 均值归一化
也是预处理中经常采用的一种特征缩放的方法
4. 学习率
吴老师经验:
(1)画出梯度下降时,代价函数的数值,确保梯度下降起作用了
(2)对于不同的问题,梯度下降所需的迭代步数、需要的时间都不同,
(3)另外也可以通过一个自动化收敛测试方法检测收敛情况,但是确定一个收敛的阈值并不容易
(4) 如果不收敛,采用更小的学习率
(5)以三的倍数进行多次尝试
分类:
机器学习
, 吴恩达机器学习系列教程笔记
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!