摘要: 在使用K近邻算法进行分类时,随着训练集中的样本数的增大,K近邻算法的计算成本将急剧增大。目前有两种减少训练集样本数的方法:剪辑方法和压缩方法。前者通过删除错误分类的样本达到压缩训练集的效果,后者的目的是在不改变分类决策边界的前提下减少每一个类的样本数目。 阅读全文
posted @ 2012-08-09 12:37 海角七号的Blog 阅读(4062) 评论(0) 推荐(0) 编辑