摘要: cost function的表达式 batch gradient descent 1.**simultaneously update all theta** 2.每次都使用 所有都数据 Update equation的表达式, 就是求导之后的 这里,, X0 = 1 Intercept term ( 阅读全文
posted @ 2017-07-18 18:20 烧鸭饭真好吃 阅读(229) 评论(0) 推荐(0) 编辑