随笔分类 - 统计学习方法
主要用来补充<<机器学习实战>>这本书缺少理论和讲的不够详细
摘要:" " " " 很好理解,就是将一些基本的性能一般的弱分类器组合起来,来构成一个性能较好的强分类器;这其中如果数据一样的话那不是每次训练出的分类器就都一样了嘛,所以在每次训练后要根据训练结果来改变数据的权重;还有一个关键点是通过什么方法来组合这些弱分类器. " " " " " " " " 由8.2可
阅读全文
摘要:" " 实际上这里从线性可分支持向量机到线性支持向量机再到非线性支持向量机,就是从特殊到一般的过程. " " " " " " " " " " " " " " " " 这里介绍了函数间隔和几何间隔,这里前面乘以y的目的就是为了保证得到的值为正;注意定义中是间隔还是间隔的最小值;先引入函数间隔,然后为了
阅读全文
摘要:" " " " 介绍了分布函数和概率密度,函数特点. " " " " " " 这里的逻辑斯谛回归模型就是为了将实数范围映射到(0,1)范围上.即将线性函数外套上sigmoid函数. https://blog.csdn.net/hfutxiaoguozhi/article/details/788439
阅读全文
摘要:之前都是对着抄,感觉没什么意思,而且还会漏掉一些点,所以索性直接全拿过来,再对它做些解释说明,感觉还好点. " " " " " " 大概思路就是假设条件独立性(来简化问题);然后求联合分布;进行分类时对具体样本用贝叶斯公式和刚才的联合分布求后验概率,并化简(而这求解过程中要用到极大似然估计或者贝叶斯
阅读全文
摘要:决策树 一.决策树基本描述 决策树是一种基本的分类与回归方法,呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程.学习时,利用训练数据根据损失函数最小化的原则建立决策树模型.预测时,对新的数据,利用决策树模型进行分类.而学习又通常包括三个步骤:特征选择,决策树生成,决策树修剪. 二.决策树模
阅读全文
摘要:k近邻算法 一.k近邻算法基本描述 给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最相近的k个实例,这k个实例的多数属于某个类,就把该输入实例分为这个类. " " 二.k近邻模型 该模型有三个基本要素: 距离度量,k值的选择,分类决策规则 .当这三个要素确定后,便能对于任何一个新的输
阅读全文
浙公网安备 33010602011771号