摘要: 决策树优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据; 决策树缺点:可能会产生过度匹配问题。 决策树的一般步骤: (1)代码中def 1,计算给定数据集的香农熵: 其中n为类别数,D为数据集,每行为一个样本,pk 表示当前样本集合D中第k类样本所占的比例,Ent 阅读全文
posted @ 2018-10-04 17:17 LJ的博客 阅读(2225) 评论(0) 推荐(0) 编辑
摘要: k近邻优点:精度高、对异常值不敏感、无数据输入假定;k近邻缺点:计算复杂度高、空间复杂度高import numpy as npimport operatorfrom os import listdir# k近邻分类器def classify0(inx, dataSet, labels, k): da 阅读全文
posted @ 2018-10-03 18:20 LJ的博客 阅读(416) 评论(0) 推荐(0) 编辑