线性回归和 逻辑回归 的思考(参考斯坦福 吴恩达的课程)

还是不习惯这种公式的编写,还是直接上word。。。。

对上面的(7)式取log后并最大化即可得到最小二乘法,即 argmaxθ J(θ)

 

思考二:线性回归到逻辑回归的转变:

1) 引入逻辑回归,假设用线性回归来做分类问题,设为二分类,即y取0或1。

则会出现如下的情况:

 

 

 

 

 

这种情况下是能很好的分类的,但若数据是如下所示呢:

 

 

则分类很不好。

 

 

思考三:逻辑回归损失函数的得来(解释):

    答,也是通过最大似然得到的。y的取值为0,1;则认为这是一个伯努力的分布,也称为两点的分布,则公式表示如下:

注:公式(27)最后一行的公式写错了,少了个log,正确公式应是如下:

  

四:逻辑函数(Logistic function)或者是S形函数(Sigmoid function) 的由来:

 

 

五、softmax 与logist回归的关系

  可以认为 对于y|x;θ  logist回归是一个两点的分布,而 softmax是一个多项式的分布。利用广义线性模型可得到softmax的表示。

总结:

1)算法是一个很有逻辑(严谨)的一门学科,都有因果和解释。

2)还有最大似然 法是神器,许多算法的推导都是从其开始的,若 最大似然法 加上 贝叶斯公式就更是神器啦!

 

参考:  线性回归、logistic回归、广义线性模型——斯坦福CS229机器学习个人总结:

    https://blog.csdn.net/sinat_37965706/article/details/69204397

    Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization:

    https://blog.csdn.net/sinat_37965706/article/details/69204397

posted on 2018-08-12 00:06  sprus_timmy  阅读(478)  评论(0编辑  收藏  举报