随笔分类 - 统计学习方法
统计学习方法的学习笔记,看书的一些记录
摘要:首先叙述EM算法,然后讨论EM算法的收敛性,作为EM算法的应用,介绍高斯混合模型的学习,最后介绍EM算法的推广-GEM算法 EM算法的引入 目的:概率模型有时候既含有观测变量,也含有隐变量,EM算法就是含有隐变量的概率模型参数的极大似然估计法或极大后验概率估计法 EM算法 输入:观测变量数据,
阅读全文
摘要:首先介绍提升算法的思路和代表性的提升算法AdaBoost,然后分析AdaBoost为什么可以提高学习精度,从前向分步加法模型的角度解释AdaBoost,最后介绍提升方法更具体的实力,提升树boosting tree 提升方法AdaBoost算法 提升方法的基本思路 三个臭皮匠顶个诸葛亮,在概率近似正
阅读全文
摘要:包含对三种支持向量机的介绍,包括线性可分支持向量机,线性支持向量机和非线性支持向量机,包含核函数和一种快速学习算法-序列最小最优化算法SMO。 非线性支持向量机与核函数 核技巧 非线性分类问题 给定一个训练数据集
阅读全文
摘要:包含对三种支持向量机的介绍,包括线性可分支持向量机,线性支持向量机和非线性支持向量机,包含核函数和一种快速学习算法-序列最小最优化算法SMO。 线性支持向量机与软间隔最大化 假设训练集$T = {(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)},x_i \in \mathc
阅读全文
摘要:包含对三种支持向量机的介绍,包括线性可分支持向量机,线性支持向量机和非线性支持向量机,包含核函数和一种快速学习算法-序列最小最优化算法SMO。 线性可分支持向量机与硬间隔最大化 线性可分支持向量机 假设一个特征空间上线性可分的训练数据集$T = {(x_1,y_1),(x_2,y_2),\cdots
阅读全文
摘要:原始问题 假设是定义在上的连续可微函数,考虑约束最优化问题 $$ \begin{aligned} \mathop{min}\limits_{x \in R^n}\ &f(x) \ s.t.\ &c_i(x) \leq 0,i = 1,2,\cdots
阅读全文
摘要:首先介绍逻辑斯谛模型,然后介绍最大熵模型,最后讲述逻辑斯谛回归与最大熵模型的学习算法,包括改进的迭代尺度算法和拟牛顿法 逻辑斯谛回归模型 逻辑斯谛分布 设是连续随机变量,具有下列分布函数和密度函数:是位置参数,是形状参数,越小,分布函数在中心增长得越快 $
阅读全文
摘要:首先介绍决策树的基本概念,然后通过和介绍特征的选择、决策树的生成以及决策树的修剪,最后介绍算法 决策树模型与学习 分类决策树模型的树结构有两种结点,内部结点表示一个特征或属性,叶结点表示一个类; 决策树所有的从根节点到叶结点的路径构成if-else规则集,这些规则是
阅读全文
摘要:首先介绍感知机模型,然后叙述感知机的学习策略,特别是损失函数,最后介绍感知机学习算法,包括原始模式和对偶模式,并证明算法的收敛性 感知机模型 输入空间(特征空间):,假设 输出空间:$\mathcal{Y}
阅读全文