会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
不爱学习的Shirley
博客园
首页
新随笔
联系
订阅
管理
2020年3月29日
[斯坦福大学2014机器学习教程笔记]第二章-梯度下降
摘要: 之前我们已经讲了代价函数了,这节我们讲代价函数J最小化的梯度下降法。 梯度下降是很常用的算法。它不仅被用在线性回归上,还被广泛应用于机器学习的众多领域。 下面是问题概述。我们有一个函数J(θ0,θ1),这也许是个线性回归的代价函数,也许是个需要最小化的其他函数。我们需要用一个算法,来最小化函数J(θ
阅读全文
posted @ 2020-03-29 20:54 不爱学习的Shirley
阅读(303)
评论(0)
推荐(0)
编辑
公告