ML一:python的KNN算法

 (1):list的排序算法

参考链接:http://blog.csdn.net/horin153/article/details/7076321

示例: DisListSorted = sorted(DisList, key = lambda DisList: DisList[1], reverse =False) 使用lambda函数,利用元素索引作为key;


在 Python 中, 当需要对一个 list 排序时, 一般可以用 list.sort() 或者 sorted(iterable[, cmp[, key[, reverse]]]).
其中:
cmp(e1, e2) 是带两个参数的比较函数, 返回值: 负数: e1 < e2, 0: e1 == e2, 正数: e1 > e2. 默认为 None, 即用内建的比较函数;
key 是带一个参数的函数, 用来为每个元素提取比较值. 默认为 None, 即直接比较每个元素;
reverse 是一个布尔值, 表示是否反转比较结果.。reverse =False 代表从小到大...


(2):几种排序算法:

1, 通常, key 和 reverse 比 cmp 快很多, 因为对每个元素它们只处理一次; 而 cmp 会处理多次.
也就是说, 同等情况下, 写 key 函数比写 cmp 函数要高效很多.

2, 对一些貌似比较复杂的排序, 也是不需要写 cmp 函数的, 举例如下:
>>> students = [('john', 'A', 15), ('jane', 'B', 12), ('dave', 'B', 10),]

用元素索引做 key:
>>> sorted(students, key=lambda student: student[2])   # sort by age
[('dave', 'B', 10), ('jane', 'B', 12), ('john', 'A', 15)]

用元素已经命名的属性做 key:
>>> sorted(students, key=lambda student: student.age)   # sort by age
[('dave', 'B', 10), ('jane', 'B', 12), ('john', 'A', 15)]

用 operator 函数来加快速度, 上面两个排序等价于:
>>> from operator import itemgetter, attrgetter
>>> sorted(students, key=itemgetter(2))
>>> sorted(students, key=attrgetter('age'))

用 operator 函数进行多级排序, 这个就是比较复杂的应用. 按我以前的理解, 是一定要写个定制的 cmp 函数的. 现在看来, 以前真的够笨.
# sort by grade then by age
>>> sorted(students, key=itemgetter(1,2))
[('john', 'A', 15), ('dave', 'B', 10), ('jane', 'B', 12)]
>>> sorted(students, key=attrgetter('grade', 'age'))
[('john', 'A', 15), ('dave', 'B', 10), ('jane', 'B', 12)]

3, 根据字典值排序
>>> d = {'a':2, 'b':23, 'c':5, 'd':17, 'e':1}

#1, 返回 pair 对:
from operator import itemgetter
>>> sorted(d.iteritems(), key=itemgetter(1), reverse=True)
[('b', 23), ('d', 17), ('c', 5), ('a', 2), ('e', 1)]

#2, 仅返回 keys:
>>> sorted(d, key=d.__getitem__, reverse=True)
['b', 'd', 'c', 'a', 'e']


 4, sorted() 会返回一个新的已经排好序的 list.
list.sort() 是就地排序, 以节约空间, 当然就不会返回一个排好序的新的 list 了. 这对大的 list 排序是有空间优势的.

 

(3):KNN算法实例:

<p>#  DataMatrix 为向量数组 列表
</p><p> def creatDataSetLabel(DataMatrix, LabelVec):
    
    Classifier ={}
    if len (LabelVec) !=len (DataMatrix):
        return Classifier
    
    for idx in range(len (LabelVec)):
        Classifier[LabelVec[idx] ]  = DataMatrix[idx]        
    
    return Classifier</p>
<p>#filename 为文件夹
</p><p>def   trainClassifier(filename):
    DataMatrix= creatDataSet(filename)
    LabelNum  = len(DataMatrix )
    LabelVec  = creatLabel(LabelNum)
    Classifier= creatDataSetLabel(DataMatrix,LabelVec)
 
    return Classifier
</p><p>
</p><p>#输入向量,返回k近邻!
</p><p>def classify(Classifier, Feature ,K):
    
    if len(Feature) != len(Classifier[0] ):
        return 0
    
    kNear = []
    Distance ={}# similarity
    
    for i in range(len(Classifier) ):
        DisVec = Classifier[i] - Feature
        DisMat = DisVec **2
        Distance[i] = DisMat.sum()
    
    DisList =[]
    for key in Distance:
        DisList.append([key, Distance[key] ])</p><p>
    DisListSorted = sorted(DisList, key = lambda DisList: DisList[1], reverse =False) #排序 距离
    
    for i in range(K):
        kNear.append(DisListSorted[i] ) 
    
    return kNear
</p>


posted @ 2014-03-05 22:02  wishchin  阅读(219)  评论(0编辑  收藏  举报