KNN K近邻算法

KNN K近邻算法

 

算法特点

优点:精度高、对异常值不敏感、无数据输入假定。
缺点:计算复杂度高、空间复杂度高。
适用数据范围:数值型和标称型。

算法内容

选择样本数据集中前k个最相似的数据,k个最相似数据中出现次数最多的分类,作为新数据的分类。

通俗地讲,想判定某个数据的类别,先找到距离最近的k个数(平方和再开方求距离),再看k个数据中处在哪个类别的数最多

 

 归一化数值

     将任意取值范围的特征值转化为0到1区间内的值   newValue = {oldValue - min) / (max-min)

def datingClassTest():
    hoRatio = 0.50      #hold out 10%
    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')       #load data setfrom file
    normMat, ranges, minVals = autoNorm(datingDataMat)
    m = normMat.shape[0]
    numTestVecs = int(m*hoRatio)
    errorCount = 0.0
    for i in range(numTestVecs):
        #参数1 normMat[i,:]    1-500行 的1行
        #参数2 normMat[numTestVecs:m,:]    500-1000行 的500行 
        #参数3 datingLabels[numTestVecs:m],3) 500-1000行 的500行 result
#参数4 k=3 classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3) print "the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i]) if (classifierResult != datingLabels[i]): errorCount += 1.0 print "the total error rate is: %f" % (errorCount/float(numTestVecs)) print errorCount

 每判定一次,需要比较500次,计算量比较大

在这里k定为3,一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k近邻算法中k的出处,通常k是不大于20的整数。
最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。

def classify0(inX, dataSet, labels, k):
     #计算距离,行的个元素的平方差
    dataSetSize = dataSet.shape[0]
    diffMat = tile(inX, (dataSetSize,1)) - dataSet
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances**0.5
    
    #排序,选择k个最小的距离
    sortedDistIndicies = distances.argsort()     
    classCount={}   

    # k个数据当中每个类型次数统计,然后从大到小排序, 选择次数最多作为判定结果     
    # 例如 分类1:1次   分类2:3次  分类3:2次    最终选择 分类2
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
    return sortedClassCount[0][0]

知识点 

机器学习算法一个很重要的工作就是评估算法的正确率,通常我们只提供已有数据的90%作为训练样本来训练分类
器,而使用其余的10%数据去测试分类器,检测分类器的正确率

posted @ 2016-08-01 18:02  kyo.stone  阅读(197)  评论(0编辑  收藏  举报