机器学习算法完整版见fenghaootong-github

逻辑回归(Logistic Regression)

Regression问题的常规步骤为:

  • 寻找h函数(即hypothesis);
  • 构造J函数(损失函数);
  • 想办法使得J函数最小并求得回归参数(θ)

构造预测函数h

函数形式为:

hθ(x)=g(θTx)=11+eθTx

函数hθ(x)的值有特殊的含义,它表示结果取1的概率,因此对于输入x分类结果为类别1和类别0的概率分别为:

P(y=1|x;θ)=hθ(x)
P(y=0|x;θ)=1hθ(x)

构造损失函数J

将上面二式综合起来

P(y|x;θ)=(hθ(x))y(1hθ(x))1y

取似然函数为:

L(θ)=Πi=1mP(yi|xi;θ)=Πi=1m(hθ(xi))yi(1hθ(xi))1yi

对数似然函数为:

l(θ)=logL(θ)=i=1m(yihθ(xi)+(1yi)(1hθ(xi)))

最大似然估计就是求使l(θ)取最大值时的θ,其实这里可以使用梯度上升法求解,求得的θ就是要求的最佳参数。

J(θ)=1ml(θ)

因为乘了一个负的系数-1/m,所以取J(θ)最小值时的θ为要求的最佳参数。

梯度下降法求的最小值

θ更新过程:

θj:=θjα1mi=1m(hθ(xi)yi)xij

逻辑回归(Logistic Regression)经典实例

逻辑回归(Logistic Regression)经典实例

posted on 2018-03-07 14:21  一小白  阅读(165)  评论(0编辑  收藏  举报