摘要: 梯度更新是要同时更新,如下图所示:θ0和θ1同时更新,而不是更新完一个后再更新另一个。 学习率α过小,梯度下降较慢,训练时间增长。若学习率α过大,梯度下降会越过最低点,难以得到最优的结果,导致难以收敛或发散。 如果参数值已是局部最优,进行梯度下降计算时导数是0,梯度下降不会作任何操作,参数不改变 在 阅读全文
posted @ 2019-01-25 17:17 努力奋斗的阿贝拉 阅读(3401) 评论(0) 推荐(0) 编辑
摘要: 转自:https://blog.csdn.net/heshushun/article/details/77776706 一、先登录Mongodb官网https://www.mongodb.com/download-center#community 下载 安装包。32、64位的都行。 二、安装Mong 阅读全文
posted @ 2019-01-25 10:46 努力奋斗的阿贝拉 阅读(1073) 评论(0) 推荐(0) 编辑