11 2017 档案

摘要:Bagging 集成学习算法有两个大类:一个是Boosting,代表算法是AdaBoost;另一个是Bagging,本文介绍的随机森林是它的一个变种。 Bagging也叫自举汇聚法(bootstrap aggregating),它在原始数据集上通过有放回抽样重新选出$T$个包含$m$条数据的新数据集 阅读全文
posted @ 2017-11-26 09:50 bubingy 阅读(479) 评论(0) 推荐(0)
摘要:集成学习 在一般经验中,如果把好坏不等的东西掺到一起,那么通常结果会是比最坏的要好一些,比最好的要坏一些。这就是集成学习的出发点。如果把多个学习器结合起来,是否能获得比最好的单一学习器更好的性能呢? 集成学习(ensemble learning)通过构建并结合多个学习器来完成学习任务。集成学习一般先 阅读全文
posted @ 2017-11-24 17:03 bubingy 阅读(221) 评论(0) 推荐(0)
摘要:最近邻分类器 消极学习方法 一般的分类器,比如决策树和支撑向量机,只要有训练数据可用,它们就开始学习从输入属性到类标号的映射模型,这类学习策略被称为积极学习方法。与之相对的是消极学习算法,它的策略是推迟对训练数据的建模,在需要分类测试样例时再进行。消极学习的一个例子是Rote分类器,它记住整个训练集 阅读全文
posted @ 2017-11-22 15:27 bubingy 阅读(4716) 评论(0) 推荐(0)
摘要:PCA 降维 一些机器学习算法在处理高维数据时,性能会出现明显下降,这就是所谓的“维度灾难”,为此人们开始对算法进行改进。与此同时,对降维的需求催生了降维算法,比如本文要介绍的主成分分析(Principal Component Analysis,PCA)。 在开始本文的主要内容之前,我想先举一个关于 阅读全文
posted @ 2017-11-22 13:35 bubingy 阅读(330) 评论(0) 推荐(0)
摘要:贝叶斯分类器 什么是贝叶斯分类器 贝叶斯分类器是一类分类器的总称,这些分类器均以贝叶斯定理为基础,故统称为贝叶斯分类器。这些分类器中最简单的是朴素贝叶斯分类器,它几乎完全按照贝叶斯定理进行分类,因此我们从朴素贝叶斯分类器说起。 贝叶斯定理: 贝叶斯定理是概率论中一个比较重要的定理,在讲解贝叶斯定理之 阅读全文
posted @ 2017-11-22 13:29 bubingy 阅读(796) 评论(0) 推荐(0)
摘要:决策树 什么是决策树 决策树是一种简单高效并且具有强解释性的模型,广泛应用于数据分析领域。其本质是一颗由多个判断节点组成的树。 上图是一个简单的决策树模型,用来判断某个动物样本是否属于哺乳动物,树中包含三种节点: 根节点:没有入边,但有零条或者多条出边 内部节点:有一条或者多条出边 叶节点:只有一条 阅读全文
posted @ 2017-11-22 13:28 bubingy 阅读(941) 评论(0) 推荐(0)