摘要: 大家好,由于博客园流量太小,不受重视,所以准备搬到CSDN,那里人气比较高。 阅读全文
posted @ 2013-06-09 22:06 MechineLearner 阅读(210) 评论(0) 推荐(0) 编辑
摘要: 一.SMO算法的原理SMO算法和以往的一些SVM改进算法一样,是把整个二次规划问题分解为很多较易处理的小问题,所不同的是,只有SMO算法把问题分解到可能达到的最小规模:每次优化只处理两个样本的优化问题,并且用解析的方法进行处理。我们将会看到,这种与众不同的方法带来了一系列不可比拟的优势。对SVM来说,一次至少要同时对两个样本进行优化(就是优化它们对应的Lagrange乘子),这是因为等式约束的存在使得我们不可能单独优化一个变量。所谓“最小优化”的最大好处就是使得我们可以用解析的方法求解每一个最小规模的优化问题,从而完全避免了迭代算法。当然,这样一次“最小优化”不可能保证其结果就是所优化的Lag 阅读全文
posted @ 2013-03-28 20:27 MechineLearner 阅读(3124) 评论(0) 推荐(0) 编辑
摘要: 传统的一维PCA和LDA方法是在图像识别的时候基于图像向量,在这些人脸识别技术中,2D的人脸图像矩阵必须先转化为1D的图像向量,然后进行PCA或者LDA分析。缺点是相当明显的: 一、转化为一维之后,维数过大,计算量变大。 二、主成分分析的训练是非监督的,即PCA无法利用训练样本的类别信息。 三、识别率不是很高。本文介绍的是2DPCA,2DPCA顾名思义是利用图像的二维信息。 2DPCA算法简介 设X表示n维列向量,将mxn的图像矩阵A通过如下的线性变化直接投影到X上: 得到一个m维的列向量Y,X为投影轴,Y称为图像A的投影向量。最佳投影轴X可以根据特征相怜Y的散度... 阅读全文
posted @ 2013-03-28 19:28 MechineLearner 阅读(4533) 评论(1) 推荐(1) 编辑
摘要: 一、eig函数的使用方法在MATLAB中,计算矩阵A的特征值和特征向量的函数是eig(A),常用的调用格式有5种:(1) E=eig(A):求矩阵A的全部特征值,构成向量E。(2) [V,D]=eig(A):求矩阵A的全部特征值,构成对角阵D,并求A的特征向量构成V的列向量。(3) [V,D]=eig(A,'nobalance'):与第2种格式类似,但第2种格式中先对A作相似变换后求矩阵A的特征值和特征向量,而格式3直接求矩阵A的特征值和特征向量。(4) E=eig(A,B):由eig(A,B)返回N×N阶方阵A和B的N个广义特征值,构成向量E。(5) [V,D]=e 阅读全文
posted @ 2013-03-22 21:27 MechineLearner 阅读(626) 评论(0) 推荐(0) 编辑
摘要: 什么是机器学习 (Machine Learning) 机器学习是研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习的大致分类:1)分类(模式识别):要求系统依据已知的分类知识对输入的未知模式(该模式的描述)作分析,以确定输入模式的类属,例如手写识别(识别是不是这个数)。2)问题求解:要求对于给定的目标状态,寻找一个将当前状态转换为目标状态的动作序列。SVM一般是用来分类的(一般先分为两类,再向多类推广一生二,二生三,三生万物哈) 问题的描述向量表示: 阅读全文
posted @ 2012-12-31 22:37 MechineLearner 阅读(8057) 评论(0) 推荐(1) 编辑
摘要: for(vector<student-info>::const-iterator iter=students.begin();iter!=student.end();iter++){ cout<<(*iter).name<<endl;}每个容器都有一个关联的iteratorcontainer-type:const-iterator 只读 iteratorvector:快速随机访问,类似数组list:适合快速插入和删除,类似链表list<student> extract_fails(list<student>& students 阅读全文
posted @ 2012-11-21 21:56 MechineLearner 阅读(203) 评论(0) 推荐(0) 编辑
摘要: 教你透彻理解机器学习算法 阅读全文
posted @ 2012-11-15 11:27 MechineLearner 阅读(351) 评论(0) 推荐(0) 编辑
摘要: 在此开了博客用于记录自己的学习机器学习的过程和心得。首先大概的理一下思路,准备写如下几个篇文章一、机器学习中必备的基本数学知识接下来大概按照FISHER 大大的大作PRML,列了大概的提纲:二、概率分布,一些基本的概率分布 厚积方能勃发,这些概率分布是机器学习的基础三、线性分类和回归 Baysian思想是大头四、Guassian 分布以及核函数 统计学领域研究还蛮热的一个方向。五、详细讲解SVM(support vector machine) PS:SVM是我boss的主要研究方向,也是我理解最透彻的一个方向,我会详细重点讲解相关知识,并且教授LIBSVM最后自己实现基本的SVM算法... 阅读全文
posted @ 2012-11-15 11:23 MechineLearner 阅读(257) 评论(0) 推荐(0) 编辑
摘要: 学习机器学习,有几个数学知识是必须要掌握的,不然会看地稀里糊涂的(安拉之前就是这个状态)。其中,数据的分布、最大似然(以及求极值的几个方法),偏差、方差的权衡,还有特征选择,模型选择,混合模型等,都尤为重要。在此我带着大家一起复习一下相关的知识(好多概率知识考研之后就扔掉了)。一、概率论知识大概回顾 1.条件概率 条件概率比较简单,所以就提一下。 2.贝叶斯概率 贝叶斯理论在大学概率论中已经有所接触,但是一般大学的老师只是解释下公式,然后让我们套套公式做做题,这就是大学教育的功利性,从来就只是为了应用,而不去追究问题的本质。贝叶斯在机器学习中应用相当的广,这就要求我们对贝叶斯理论有个透... 阅读全文
posted @ 2012-11-15 10:55 MechineLearner 阅读(720) 评论(0) 推荐(0) 编辑