Day3 逻辑回归

分类问题Classification

  一些典型的分类问题,如:

           

  y的取值不是一条曲线,而是几个离散值。

逻辑回归模型Logistic  regression的假设函数表达式

  逻辑回归模型中,要使 0<=hθ(x)<=1,可令

          

  其函数图像为

  

  称其为Sigmoid Function或Logistic Function。

  hθ(x)就表示输入一个x的值时,y=1的概率。

决策边界Decision  boundary  

  线性决策边界

   

  非线性决策边界 

  

 代价函数和梯度下降

  线性回归中的代价函数为

  

  但如果用此代价函数进行拟合时,可能出现如下图的情况:

  

  逻辑回归的代价函数的cost可取为

  

  其图像为

  

  

  最后的逻辑回归的代价函数为:

    

  可简写为

   

  为了得到minθJ(θ),可利用梯度下降

  

  代入J(θ),得

  

高级优化算法

  给定θ,就可以计算

  利用这两个值,我们可以利用除梯度下降以外的算法,如Conjugate  gradient,BFGS,L-BFGS来更快更好的得到θ。

  这些算法会更复杂,但它不需要选择学习速率α,速度也比梯度下降更快。

多类别分类问题Multi‐class  classification

  在处理多类别分类问题时,我们选择一个类别,将其余类别都当做同一类别,然后对每一种情况使用二元逻辑回归,然后选择hθ(x)的最大值作为返回值。

  

 

posted @ 2018-02-27 23:31  挤成肉夹馍  阅读(112)  评论(0编辑  收藏  举报