Logistic回归

题记:今天本来心情不好,不打算写博客的,但是考虑到我这仅有的不知名的读者,忍住内心满满的不舒服还是写一篇吧,哪怕一篇也好。总有些伤是硬伤,我们除了去舔舐它的伤口之外,貌似再也找不到其他对待它的方法了!

算法概述:Logistic回归也可以被看成是一种概率估计。因为我们在每个特征上都乘以一个回归系数,然后把所有的结果值相加,将这个总和带入到Sigmoid函数中得到分类结果。那么,这个Sigmoid函数又是怎么样的呢?σ(z)=1/(1+e-z)当x=0时,其值为0.5,随着x的增大对应的Sigmoid值将逼近1,随着x的减小对应的Sigmoid的值越接近0,进而得到0~1之间的数值,任何大于0.5的分类被分入1类,小于0.5被分入0类。最重要的问题就是求最佳的回归系数。

5.1梯度上升法:

z=w0x0+w1x2+...,用向量表示极为z=wTx.|z|越大距离0.5越远,分类效果越好,所以需要找到w最大。梯度上升法的思想是,要找到某函数的最大值,最好的方法是沿着该函数的梯度方向探寻。迭代公式为w:=w+⊿wf(w),α是迭代的步长,直到达到某个停止条件为止如迭代次数达到某个指定值或算法达到某个可以允许的误差范围。伪代码如下:

每个回归系数初始化为1;

重复R次:

  计算整个数据集的梯度;

  使用alpha*gradient更新回归系数的向量

  返回回归系数

代码如下:

def loadDataSet():#获取数据集,不解释
  dataMat=[];labelMat=[]
  fr=open('testSet.txt')
  for line in fr.readlines():
    lineArr=line.strip().split()
    dataMat.append([1.0,float(lineArr[0]),float(lineArr[1])])
    labelMat.append(int(lineArr[2]))
  return dataMat,labelMat


def sigmoid(intX):#sigmoid函数,定义如此,不解释
  return 1.0/(1+exp(-intX))


def gradAscent(dataMatIn,classLabels):#寻找最佳回归系数的函数
  dataMatrix=mat(dataMatIn)
  labelMat=mat(classLabels).transpose()#真实类别
  m,n=shape(dataMatrix)
  alpha=0.001#步长
  maxCycles=500#递归结束条件,达到500次
  weights=ones((n,1))
  for k in range(maxCycles):
    h=sigmoid(dataMatrix*weights)#预测类别
    error=labelMat-h#差值
    weights=weights+alpha*dataMatrix.transpose()*error#在差值方向调整回归系数。
  return weights

5.2分析数据,画出决策边界

现在已经有了回归系数了,它可以确定不同类别数据之间的分隔线。

def plotBestFit(wei):
import matplotlib.pyplot as plt
weights=wei.getA()
dataMat,labelMat=loadDataSet()
dataArr=array(dataMat)
n=shape(dataMat)[0]
xcord1=[];ycord1=[]
xcord2=[];ycord2=[]
for i in range(n):
  if int(labelMat[i])==1:
    xcord1.append(dataArr[i,1]);ycord1.append(dataArr[i,2])
  else:
    xcord2.append(dataArr[i,1]);ycord2.append(dataArr[i,2])
fig=plt.figure()
ax=fig.add_subplot(111)
ax.scatter(xcord1,ycord1,s=30,c='red',marker='s')
ax.scatter(xcord2,ycord2,s=30,c='green')
x=arange(-3.0,3.0,0.1)
y=(-weights[0]-weights[1]*x)/weights[2]
ax.plot(x,y)
plt.xlabel('X1');plt.ylabel('Y1');
plt.show()

看,只错分了两个点!还不错哈!

5.3训练算法:随机梯度上升算法

由于梯度上升算法每次更新回归系数时都需要遍历整个数据集,复杂度高,采用改进算法--随机梯度上升算法,一次仅用一个样本点来更新回归系数,在新样本到来时对分类器进行增量式更新,是一个在线学习算法。

伪代码:所有回归系数初始化为1

对数据集中的每个样本

  计算该样本的梯度

  使用alpha*gradient更新回归系数值

返回回归系数值

继续写,嘿嘿,刚才下课会寝室了!

def stocGradAscent0(dataMatrix,classLabels):
  m,n=shape(dataMatrix)
  alpha=0.01
  weights=ones(n)
  for i in range(m):
    h=sigmoid(sum(dataMatrix[i]*weights))
    error=classLabels[i]-h
    weights=weights+alpha*error*dataMatrix[i]
  return weights

效果不太好,但是世界上没有十全十美的事情呢。

接下来看一下改进的随机梯度上升算法,来避免系数的剧烈的波动(详情見书):

首先alpha在每次迭代的时候都会改变,其次样本随机出现

def stocGradAscent1(dataMatrix,classLabels,numIter=150):
  m,n=shape(dataMatrix)
  weights=ones(n)
  for j in range(numIter):
    dataIndex=range(m)
    for i in range(m):
      alpha=4/(1.0+j+i)+0.01
      randIndex=int(random.uniform(0,len(dataIndex)))
      h=sigmoid(sum(dataMatrix[randIndex]*weights))
      error=classLabels[randIndex]-h
      weights = weights + alpha * error * dataMatrix[randIndex]
      del(dataIndex[randIndex])
  return weights

是不是好多了呢!

 

好了,现在去练习一下书上预测病马的死亡率问题吧。(结)

 

 

 

 

posted on 2014-03-02 21:50  我是咖啡豆哈  阅读(734)  评论(0编辑  收藏  举报

导航