摘要: 原文地址:传智播客:数据结构基础:堆和栈作者:habernate栈与堆都是Java用来在Ram中存放数据的地方。与C++不同,Java自动管理栈和堆,程序员不能直接地设置栈或堆。Java的堆是一个运行时数据区,类的(对象从中分配空间。这些对象通过new、newarray、anewarray和multianewarray等指令建立,它们不需要程序代码来显式的释放。堆是由垃圾回收来负责的,堆的优势是可以动态地分配内存大小,生存期也不必事先告诉编译器,因为它是在运行时动态分配内存的,Java的垃圾收集器会自动收走这些不再使用的数据。但缺点是,由于要在运行时动态分配内存,存取速度较慢。栈的优势是,存取 阅读全文
posted @ 2011-11-12 19:09 Pierres 阅读(272) 评论(0) 推荐(0) 编辑
摘要: 先下载该软件和注册机UltraEdit v17.00.0.1041简体中文版下载地址:http://www.ultraedit.com/files/ue_chinese.zip(同时也是最新简中版下载地址)UltraEdit v17.00.0.1041简体中文版注册机下载地址:http://dl.dbank.com/c0c97pmduu使用方法:1. 打开注册页面;2. 选择脱机激活;3. 把用户码1,用户码2复制到注册机的 User Code 1 和User Code 2;4. 点击注册机的Generat,生成Authorization1 和 Authorization2;5. 复制Auth 阅读全文
posted @ 2011-11-12 19:08 Pierres 阅读(716) 评论(1) 推荐(0) 编辑
摘要: 莱文斯坦距离(LD)用于衡量两个字符串之间的相似度。 以下我们称这两个字符串分别为 s (原字符串) 和 t (目标字符串)。莱文斯坦距离被定义为''将字符串 s 变换为字符串 t 所需的删除、插入、替换操作的次数''。例如:s="test", t="test", 那么 LD(s,t)=0,因为不需要做任何变换两者已相等;s="test", t="tent", 那么 LD(s,t)=1,因为s变换为t只需做一次替换(将"s"替换为"n")。莱文 阅读全文
posted @ 2011-11-12 19:08 Pierres 阅读(564) 评论(0) 推荐(0) 编辑
摘要: 原文地址:AdaBoost算法的训练过程作者:charming每个Haar特征对应看一个弱分类器,但并不是任伺一个Haar特征都能较好的描述人脸灰度分布的某一特点,如何从大量的Haar特征中挑选出最优的Haar特征并制作成分类器用于人脸检测,这是AdaBoost算法训练过程所要解决的关键问题。Paul Viola和Michael Jones于2001年将Adaboost算法应用于人脸检测中,其基本思想是针对不同的训练集训练同一个分类器(弱分类器),然后把这些不同训练集上的得到的分类器联合起来,构成一个最终的强分类器。Adaboost 算法中不同的训练集是通过调整每个样本对应的权重来实现的。开始 阅读全文
posted @ 2011-11-12 19:07 Pierres 阅读(547) 评论(0) 推荐(0) 编辑
摘要: #include<iostream>#include<algorithm>#include<functional>#include<cmath>#include<vector>using std::vector;using namespace std;#define FCOUNT 100//特征数#define CCOUNT 30//弱分类器个数#define PCOUNT 200//正样本数#define NCOUNT 300//负样本数structsample{ int features[FCOUNT];//特征 int pos_ 阅读全文
posted @ 2011-11-12 19:00 Pierres 阅读(568) 评论(0) 推荐(1) 编辑
摘要: 首先就是直观的理解adaboost,就是weak classifiers 可以组合成 strong classifer。具体算法流程就是,首先所有samples的权重相同(也有根据正负类的个数不同,权重不同的调整)对每个feature,寻找这个feature对应的分类器,来分类,由于是只用了一个feature,所以分类效果不好,当然只要分类错误小于50%就OK,遍历所有的feature,找到一个分类错误最小的feature以及对应的阈值theta,对分类错误的samples加权,即这些很错的samples很重要,比其他的重要。接着对这些权重不一的samples再分类,继续上面的过程直到T次,这 阅读全文
posted @ 2011-11-12 18:59 Pierres 阅读(307) 评论(0) 推荐(0) 编辑
摘要: 问题runtime errorprogram:d:\MATLAB\bin\win32\MATLAB.exethis application has requested the runtime to terminate it in an unusual way. please contact the application's support team for more information1.安装完后,单击图标属性,将兼容性从默认的WINDOWNS95 改成WINDOWNS2000.(我的就是这个原因)2.将桌面的主题改成WINDOWNS 经典。(这个我原来也遇到过,改一下就行了)。 阅读全文
posted @ 2011-11-12 18:59 Pierres 阅读(1081) 评论(0) 推荐(0) 编辑
摘要: 在Word2010文档中,利用自选图形库提供的丰富的流程图形状和连接符可以制作各种用途的流程图,制作步骤如下所述:第1步:打开Word2010文档窗口,切换到“插入”功能区。在“插图”分组中单击“形状”按钮,并在打开的菜单中选择“新建绘图画布”命令,如图1所示。图1选择“新建绘图画布”命令小提示:也可以不使用画布,而只直接在Word2010文档页面中直接插入形状。第2步:选中绘图画布,在“插入”功能区的“插图”分组中单击“形状”按钮,并在“流程图”类型中选择插入合适的流程图。例如选择“流程图:过程”和“流程图:决策”,如图2所示。图2 选择插入流程图形状第3步:在Word2010“插入”功能区 阅读全文
posted @ 2011-11-12 18:58 Pierres 阅读(246) 评论(0) 推荐(0) 编辑
摘要: 转自http://www.opencv.org.cn/forum/viewtopic.php?f=1&t=4264#p15258此文对研究adaboost算法具有很大帮助!本博转贴于此,如果有妥请与我联系.上学期拿出一部分时间来做adaboost,做的时候做了一些笔记。论坛上也有一些正在读程序研究算法的人。我就把这份粗糙的笔记拿出来与大家分享一下吧。肯定有错误的地方,也有不妥当的地方,大家不要太相信我还有这个地方不能贴公式,不能贴图片,还有我很懒,就挑了几幅重要的贴了,其他的大家去看文章吧排版不好看,也许写得也不明白,大家多包涵,希望大家可以完善这个文档。让后来者少走些弯路。不用发论坛 阅读全文
posted @ 2011-11-12 18:57 Pierres 阅读(539) 评论(0) 推荐(0) 编辑
摘要: Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。使用adaboost分类器可以排除一些不必要的训练数据特徵,并将关键放在关键的训练数据上面。 目前,对Adaboost算法的研究以及应用大多集中于分类问题,同时近年也出 现了一些在回归问题上的应用。就其. 阅读全文
posted @ 2011-11-12 18:56 Pierres 阅读(875) 评论(0) 推荐(0) 编辑