会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
烧鸭饭真好吃
博客园
首页
新随笔
联系
订阅
管理
2017年7月18日
Coursera - linear regression - notes
摘要: cost function的表达式 batch gradient descent 1.**simultaneously update all theta** 2.每次都使用 所有都数据 Update equation的表达式, 就是求导之后的 这里,, X0 = 1 Intercept term (
阅读全文
posted @ 2017-07-18 18:20 烧鸭饭真好吃
阅读(229)
评论(0)
推荐(0)
编辑
公告