摘要: 参考简书中Logistic回归及Python代码实现。 Logistic函数的损失函数的偏导数为$\frac{1}{m}\sum_{i=1}^{m}(h_\theta(x_i)-y_i)x_i^j$,所以$\theta$的更新可以写为:$\theta_j=\theta_j-\alpha\frac{1 阅读全文
posted @ 2019-08-01 22:18 hi_heisen 阅读(533) 评论(0) 推荐(0) 编辑
摘要: 2016年10月 1. 梯度下降(Gradient Descent)小结 对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。沿着梯度向量的方向就是f(x,y)增加最快的地方,容易找到函数的最大值。反过来说,沿着梯度向量相反的方向,梯度减少最快,也就是更加容易找到函数的 阅读全文
posted @ 2019-08-01 17:55 hi_heisen 阅读(1807) 评论(0) 推荐(1) 编辑