摘要: 奇异值分解(singular value decomposition,SVD)一种矩阵因子分解的方法,在主要成分分析和潜在语义分析都会用到这一重要的工具。 其即是将一个的实矩阵A,表示成三个实矩阵乘积形式, 其中U是m阶的正交矩阵,V是n阶的正交矩阵,而是由A矩阵的奇异值由降序排列成对角线组成的对角矩阵。 分解的几何解释是将任意一个n维向量,根据公式从右到左,先经过坐标系的旋转或反转变换,再... 阅读全文
posted @ 2020-03-24 22:14 lincoding` 阅读(1060) 评论(0) 推荐(0) 编辑
摘要: 聚类是根据样本的相似度,将样本归并到一类别的方法。 聚类相似度的确定则需要根据样本的特性选择合适的相似度度量方法来计算。一般相似度的度量方法有距离度量,即将样本看作向量空间的集合,以样本在空间中的距离表示样本之间的相似度,而常见的距离度量有欧氏距离。 相似度的度量方法还有:相关系数,夹角余弦等等的方法。 在确定相似度的度量方法后,聚类的算法也有两种: 层次聚类(自下而上型): 层次聚类在初始时... 阅读全文
posted @ 2020-03-24 22:13 lincoding` 阅读(494) 评论(0) 推荐(0) 编辑
摘要: 条件随机场(conditional random field,CRF),常用于标注或分析序列资料,如自然语言文字或是生物序列。即给定一组输入随机变量条件下另一组输出随机变量的条件概率分布模型。 图1-1 线性链条件随机场 设P(Y|X)为线性链条件随机场,则随机变量X在取值为x的条件下,随机变量Y取值为y的条件概率的形式如下, 是定义在边上的特征函数(转移函数),依赖于当前位置和前... 阅读全文
posted @ 2020-03-24 22:12 lincoding` 阅读(365) 评论(0) 推荐(0) 编辑
摘要: EM(expectation maximization algorithm)用于含有隐变量的概率模型参数的极大似然估计。 例子: 有三枚A,B,C硬币。首先A为选择硬币,对其进行投掷,其投掷结果正则选择B硬币进行投掷,反为选择C硬币,然后根据选择的硬币再进行投掷,记录该硬币的投掷结果,正面为1,反面为0;重复上述过程。投掷实验过程如下, 图1-1 投掷A,B,C硬币实验 实验的记录结果... 阅读全文
posted @ 2020-03-24 22:11 lincoding` 阅读(396) 评论(0) 推荐(0) 编辑
摘要: AdaBoost算法流程: 输入:训练数据集和弱学习方法; 输出:最终分类器; 初始化训练数据的权值分布(初始平均分配,D的下标和的第一个下标表示训练的轮次) 对于第m次训练, 使用具有权值分布的训练数据集学习,得到基本分类器 计算在训练数据集上分类误差率 计算的系数 更新训练数据集的权值 将上述得到的弱分类器进行线性组合 最... 阅读全文
posted @ 2020-03-24 22:10 lincoding` 阅读(349) 评论(0) 推荐(0) 编辑
摘要: 就分类问题的训练而言,求比较粗糙的分类规则(弱分类器)要比求精确的分类规则(强分类器)容易。而提升方法即从若分类器算法的学习出发,反复学习,得到一系列的弱分类器,然后通过组合,构成一个强分类器。 当然,在这提升方法中,有两个问题需要解决: 如何在每一轮的训练中改变数据的权值或是概率分布; 如何将弱分类器组合成一个强分类器。 AdaBoost算法 提升算法中,最具有代表性的算法是AdaB... 阅读全文
posted @ 2020-03-24 22:08 lincoding` 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 决策树是一种基本的分类与回归方法,其树模型是描述对实例进行分类的树状结构。 图1-1 摘自《机器学习》的西瓜分类决策树 假设给定训练数据集,其中为输入实例,A为特征类别数,为标记类(在下面用表示所标记类别,为数据集D根据标记类别的不同所划分的子集)。 设特征A(某一特征类别)有n个不同的取值,数据集 阅读全文
posted @ 2019-11-03 23:29 lincoding` 阅读(302) 评论(0) 推荐(0) 编辑
摘要: 支持向量机(support vector machines ,SVM)是一种定义在特征空间上的间隔最大的二类分类模型。 线性可分支持向量机 假定特征空间上的训练数据集,其中,支持向量机的学习目标是找到一个超平面将训练数据集分为两个部分,并且是数据集中的点到这个超平面的几何间隔最大。 至此,支持向量机 阅读全文
posted @ 2019-11-03 23:29 lincoding` 阅读(316) 评论(0) 推荐(0) 编辑
摘要: 最大熵模型(maximum entropy model)是由最大熵原理(概率模型在满足约束条件下,其他不确定的部分是"等可能"的)推导实现。 比如,有随机变量X有5个取值{A,B,C,D,E},在P(A)+P(B)+P(C)+P(D)+P(E)=1而没有其他限制的条件下,则估计X的各个取值都是等可能 阅读全文
posted @ 2019-11-03 23:29 lincoding` 阅读(338) 评论(0) 推荐(0) 编辑
摘要: 逻辑回归模型(logistic regression model)是一种软分类的判别模型,形式为参数化的逻辑斯蒂分布。 二分类的模型定义如下, 对于给定的训练数据集,其中,对于模型的参数可以用极大似然估计法来估计。 对数型的似然函数为: 上述的似然函数推导中,可以转换为求损失函数的最小化。而对于求似 阅读全文
posted @ 2019-11-03 23:29 lincoding` 阅读(156) 评论(0) 推荐(0) 编辑