2013年5月8日

迁移学习&自我学习

摘要: 最近在看Ng的深度学习教程,看到self-taught learning的时候,对一些概念感到很陌生。作为还清技术债的一个环节,用半个下午的时间简单搜了下几个名词,以后如果会用到的话再深入去看。 监督学习在前一篇博客中讨论过了,这里主要介绍下迁移学习、自我学习。因为监督学习需要大量训练样本为前提,同时对训练样本的要求特别严格,要求训练样本与测试样本来自于同一分布。要是满足不了这要求咋办?那您看看下面几种学习方法能不能帮上忙吧。迁移学习 transfer learning 有时候困扰大家的一个问题在于训练数据的标定。这将会耗费大量的人力与物力。另外,机器学习假设训练数据与测试数据服从相同的数据. 阅读全文

posted @ 2013-05-08 17:52 刚开始 阅读(492) 评论(0) 推荐(0) 编辑

2013年5月7日

LBP特征

摘要: zouxy09@qq.com LBP(Local Binary Pattern,局部二值模式)是一种用来描述图像局部纹理特征的算子;它具有旋转不变性和灰度不变性等显著的优点。它是首先由T. Ojala, M.Pietikäinen, 和 D. Harwood 在1994年提出,用于纹理特征提取。而且,提取的特征是图像的局部的纹理特征;1、LBP特征的描述 原始的LBP算子定义为在3*3的窗口内,以窗口中心像素为阈值,将相邻的8个像素的灰度值与其进行比较,若周围像素值大于中心像素值,则该像素点的位置被标记为1,否则为0。这样,3*3邻域内的8个点经比较可产生8位二进制数(通常转换为十进 阅读全文

posted @ 2013-05-07 20:47 刚开始 阅读(1014) 评论(0) 推荐(1) 编辑

2013年4月26日

HOG特征

摘要: HOG特征zouxy09@qq.com1、HOG特征: 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得了极大的成功。需要提醒的是,HOG+SVM进行行人检测的方法是法国研究人员Dalal在2005的CVPR上提出的,而如今虽然有很多行人检测算法不断提出,但基本都是以HOG+SVM的思路为主。(1)主要思想: 在一副图像中,局部目标的表象和形状(appearanc 阅读全文

posted @ 2013-04-26 20:58 刚开始 阅读(472) 评论(0) 推荐(0) 编辑

2013年4月23日

机器学习的数学基础(1)--Dirichlet分布

摘要: 这一系列(机器学习的数学基础)主要包括目前学习过程中回过头复习的基础数学知识的总结。基础知识:conjugate priors共轭先验 共轭先验是指这样一种概率密度:它使得后验概率的密度函数与先验概率的密度函数具有相同的函数形式。它极大地简化了贝叶斯分析。 如何解释这句话。由于 P(u|D) = p(D|u)p(u)/p(D) (1.0式) 其中D是给定的一个样本集合,因此对其来说p(D)是一个确定的值,可以理解为一个常数。P(u|D)是后验概率----即观察到一系列样本数据后模型参数服从的概率,p(D|u)是似然概率----在给定的模型参数u下样本数据服从这一概率模型的相似程度,p... 阅读全文

posted @ 2013-04-23 21:52 刚开始 阅读(455) 评论(0) 推荐(0) 编辑

2012年12月22日

Linux的IO系统常用系统调用及分析

摘要: Linux的IO从广义上来说包括很多类,从狭义上来说只是讲磁盘的IO。在本文中我也就只是主要介绍磁盘的IO。在这里我对Linux的磁盘IO的常用系统调用进行深入一些的分析,希望在大家在磁盘IO产生瓶颈的时候,能够帮助做优化,同时我也是对之前的一篇博文作总结。转载此文请标明出处:http://blog.csdn.net/jiang1st2010/article/details/8373063一、读磁盘:ssize_tread(int fd,void * buf ,size_t count); 读磁盘时,最常用的系统调用就是read(或者fread)。大家都很熟悉它了,首先fopen打开... 阅读全文

posted @ 2012-12-22 14:23 刚开始 阅读(642) 评论(0) 推荐(0) 编辑

2012年6月23日

聚类(2)——层次聚类 Hierarchical Clustering

摘要: (转载请注明来源:http://blog.csdn.net/jiang1st2010/article/details/7685809)不管是GMM,还是k-means,都面临一个问题,就是k的个数如何选取?比如在bag-of-words模型中,用k-means训练码书,那么应该选取多少个码字呢?为了不在这个参数的选取上花费太多时间,可以考虑层次聚类。假设有N个待聚类的样本,对于层次聚类来说,基本步骤就是: 1、(初始化)把每个样本归为一类,计算每两个类之间的距离,也就是样本与样本之间的相似度; 2、寻找各个类之间最近的两个类,把他们归为一类(这样类的总数就少了一个); 3、重新计算... 阅读全文

posted @ 2012-06-23 11:09 刚开始 阅读(457) 评论(0) 推荐(0) 编辑

2012年6月14日

聚类(1)——混合高斯模型 Gaussian Mixture Model

摘要: 聚类的方法有很多种,k-means要数最简单的一种聚类方法了,其大致思想就是把数据分为多个堆,每个堆就是一类。每个堆都有一个聚类中心(学习的结果就是获得这k个聚类中心),这个中心就是这个类中所有数据的均值,而这个堆中所有的点到该类的聚类中心都小于到其他类的聚类中心(分类的过程就是将未知数据对这k个聚类中心进行比较的过程,离谁近就是谁)。其实k-means算的上最直观、最方便理解的一种聚类方式了,原则就是把最像的数据分在一起,而“像”这个定义由我们来完成,比如说欧式距离的最小,等等。想对k-means的具体算法过程了解的话,请看这里。而在这篇博文里,我要介绍的是另外一种比较流行的聚类方法--.. 阅读全文

posted @ 2012-06-14 17:57 刚开始 阅读(304) 评论(0) 推荐(0) 编辑

2012年6月11日

聚类(序)——监督学习与无监督学习

摘要: (转载本文请注明来源:http://blog.csdn.net/jiang1st2010/article/details/7654120) 机器学习的常用方法,主要分为有监督学习(supervised learning)和无监督学习(unsupervised learning)。监督学习,就是人们常说的分类,通过已有的训练样本(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具有了对未知数据进行分类的能力。在人对事物的认识中,我们从孩.. 阅读全文

posted @ 2012-06-11 22:29 刚开始 阅读(205) 评论(0) 推荐(0) 编辑

2012年2月14日

视频跟踪——为什么卡尔曼滤波只能用于解决线性高斯系统

摘要: 为什么卡尔曼滤波只能用于解决线性高斯系统 看了卡尔曼滤波的介绍以后(Introduction to Kalman Filtering),感觉在文章的描述过程中并没有解释为什么只能解决线性高斯的系统。带着这个问题在网上查了查,终于在csdn的tudouniurou的专栏里找到了答案。 在他的博客http://blog.csdn.net/tudouniurou/article/details/6277520 中,介绍了卡尔曼滤波几个公式的证明,后验概率密度要是高斯型的这一假设用在了这个计算结果的证明过程里了。同时说明了卡尔曼滤波的实际目的: 1)预测结果是真值的无偏估计 2)各... 阅读全文

posted @ 2012-02-14 10:24 刚开始 阅读(238) 评论(0) 推荐(0) 编辑

导航