摘要: [代码]import cvif __name__ == '__main__': im = cv.LoadImage( "c:\\3.jpg", cv.CV_LOAD_IMAGE_COLOR) gray = cv.CreateImage((im.width, im.height), 8, 1) cv.CvtColor(im, gray, cv.CV_BGR2GRAY) w = gray.width h = gray.height x0 = 0; x1 = 0; y0 = 0; y1 = 0; for x in range(w) : for y in range(h) : val = cv.Ge 阅读全文
posted @ 2011-01-09 23:36 Alex.ren 阅读(853) 评论(0) 推荐(0) 编辑
摘要: [代码] 阅读全文
posted @ 2011-01-09 22:43 Alex.ren 阅读(939) 评论(0) 推荐(0) 编辑
摘要: SURF算法是SIFT算法的加速版,opencv的SURF算法在适中的条件下完成两幅图像中物体的匹配基本实现了实时处理,其快速的基础实际上只有一个——积分图像haar求导,对于它们其他方面的不同可以参考本blog的另外一篇关于SIFT的文章。 不论科研还是应用上都希望可以和人类的视觉一样通过程序自动找出两幅图像里面相同的景物,并且建立它们之间的对应,前几年才被提出的SIFT(尺度不变特征)算法提供了一种解决方法,通过这个算法可以使得满足一定条件下两幅图像中相同景物的某些点(后面提到的关键点)可以匹配起来,为什么不是每一点都匹配呢?下面的论述将会提到。 SIFT算法实现物体识别主要有三大工序,1 阅读全文
posted @ 2011-01-07 17:19 Alex.ren 阅读(1206) 评论(0) 推荐(0) 编辑
摘要: 主元分析(PCA)理论分析及应用(主要基于外文教程翻译)什么是PCA?PCA是Principal component analysis的缩写,中文翻译为主元分析。它是一种对数据进行分析的技术,最重要的应用是对原有数据进行简化。正如它的名字:主元分析,这种方法可以有效的找出数据中最“主要”的元素和结构,去除噪音和冗余,将原有的复杂数据降维,揭示隐藏在复杂数据背后的简单结构。它... 阅读全文
posted @ 2010-05-25 17:01 Alex.ren 阅读(4914) 评论(0) 推荐(0) 编辑
摘要: [代码] 阅读全文
posted @ 2010-05-17 21:43 Alex.ren 阅读(2750) 评论(1) 推荐(0) 编辑
摘要: 对于PCA,一直都是有个概念,没有实际使用过,今天终于实际使用了一把,发现PCA还是挺神奇的。 在OPENCV中使用PCA非常简单,只要几条语句就可以了。 1、初始化数据 //每一行表示一个样本 CvMat* pData = cvCreateMat( 总的样本数, 每个样本的维数, CV_32FC1 ); CvMat* pMean = cvCreateMat(1, 样本的维数, CV_32FC1... 阅读全文
posted @ 2010-05-14 10:38 Alex.ren 阅读(4766) 评论(3) 推荐(0) 编辑
摘要: 特征脸特征脸方法利用主分量分析进行降维和提取特征。主分量分析是一种应用十分广泛的数据降维技术,该方法选择与原数据协方差矩阵前几个最大特征值对应的特征向量构成一组基,以达到最佳表征原数据的目的。因为由主分量分析提取的特征向量返回成图像时,看上去仍像人脸,所以这些特征向量被称为“特征脸”。 在人脸识别中,由一组特征脸基图象张成一个特征脸子空间,任何一幅人脸图象(减去平均人脸后)... 阅读全文
posted @ 2010-05-11 23:49 Alex.ren 阅读(2646) 评论(0) 推荐(0) 编辑
摘要: 1.数据准备[代码]2, 样本训练[代码]3. 图像识别[代码] 阅读全文
posted @ 2010-05-11 23:16 Alex.ren 阅读(13776) 评论(1) 推荐(0) 编辑
摘要: [代码]c = 10.3333 -4.1667 3.0000 -4.1667 2.3333 -1.5000 3.0000 -1.5000 1.0000c为求得的协方差矩阵,在matlab以矩阵a的每一列为变量,对应的每一行为样本。这样在矩阵a中就有3个列变量分别为a(:,1), a(:,2), a(:,3)。在协方差矩阵c中,每一个元素c(i,j)为对第i列与第j列的协方差,例如c(1... 阅读全文
posted @ 2010-05-08 10:35 Alex.ren 阅读(29877) 评论(10) 推荐(9) 编辑
摘要: 什么是特征向量,特征值,矩阵分解 [1. 特征的数学意义] 我们先考察一种线性变化,例如x,y坐标系的椭圆方程可以写为x^2/a^2+y^2/b^2=1,那么坐标系关于原点做旋转以后,椭圆方程就要发生变 换。我们可以把原坐标系的(x,y)乘以一个矩阵,得到一个新的(x',y')的表示形式,写为算子的形式就是(x,y)*M=(x',y')。这里的矩 阵M代表一种线性变换:拉伸,平移,旋转。那么,... 阅读全文
posted @ 2010-04-26 14:51 Alex.ren 阅读(4031) 评论(2) 推荐(4) 编辑