吴恩达机器学习(5) 梯度下降
1.梯度下降
是一种常用的使代价函数最小化的算法,不仅用在线性回归中,也用到机器学习的很多方面,是一个非常经典的算法。
过程:一点点得改变参数,使代价函数值变小,直到找到最小值或局部最小值
2. 需要注意的点
(1)梯度下降法,不同的起点可能导致到达不同的局部最优处
(2)梯度下降法中,各个参数应该进行同步更新,如果不是同步更新,将导致更新完第一个参数后,将得到一个新的方程,再更新第二个参数将得到与同步更新不一样的结果,不是
实现梯度下降法的正确做法,是不同性质的其他算法
(3)梯度下降法中,该使用合适的学习率
过小:将导致迭代次数多,梯度下降慢
过大:将导致容易迈过最小处,容易产生振荡效果
3. Batch梯度下降法
意思为,在每一次迭代中都会遍历整个训练集的样本;非batch梯度下降法,在迭代中不会遍历所有训练集数据
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!