2013年5月20日

如何评价一个好的推荐系统算法

摘要: Netflix在网上举办了一个挑战赛,奖励100万美元向全世界选手提出一套电影的推荐系统,RMSE比当前系统小10%的最优秀的那支队伍将获得该奖项。 但是如何评价一个更好的推荐系统?What do we mean by better? 在Netflix Prize,对系统的性能评价使用了用户对电影的实际评分与推荐系统对每部电影预测评分之间的RMSE。如果说我们希望向人们展示他们可能对某部电影会有多喜欢,那RMSE越小自然越好。然而,这很可能不是我们想要的。用户实际关注的很可能是他们最喜欢的top-K部电影,至于他们不喜欢的电影,误差大一些无所谓。 chen_1st在他的博客中举了个例子,假定. 阅读全文

posted @ 2013-05-20 16:29 刚开始 阅读(1210) 评论(0) 推荐(0) 编辑

2013年5月19日

降维(二)----Laplacian Eigenmaps

摘要: 前一篇文章中介绍了主成分分析。PCA的降维原则是最小化投影损失,或者是最大化保留投影后数据的方差。在谈到其缺点的时候,我们说这一目标并不一定有助于数据的分类,换句话说,原本在高维空间中属于两类的样本,降维后可能反而不可分了。这时一种经典的降维方法是LDA,其原理是使降维后的数据间类内距离尽可能小,类间距离尽可能大。 使用LDA有个条件,就是要知道降维前数据分别属于哪一类,而且还要知道数据完整的高维信息。然而在Data Mining的很多应用下,我们是不知道数据的具体特征的(也就是高维信息),而仅仅知道数据与数据之间的相似程度。比如,在文本聚类的时候我们可以轻松知道两句话之间多么相似,但是却不. 阅读全文

posted @ 2013-05-19 21:21 刚开始 阅读(889) 评论(0) 推荐(0) 编辑

降维(一)----说说主成分分析(PCA)的源头

摘要: 主成分分析(PCA)在很多教程中做了介绍,但是为何通过协方差矩阵的特征值分解能够得到数据的主成分?协方差矩阵和特征值为何如此神奇,我却一直没弄清。今天终于把整个过程整理出来,方便自己学习,也和大家交流。提出背景以二维特征为例,两个特征之间可能存在线性关系的(例如这两个特征分别是运动的时速和秒速度),这样就造成了第二维信息是冗余的。PCA的目标是为了发现这种特征之间的线性关系,检测出这些线性关系,并且去除这线性关系。 还是以二维特征为例,如下图。特征之间可能不存在完全的线性关系,可能只是强的正相关。如果把x-y坐标分解成u1-u2坐标,而u1轴线上反应了特征的主要变化(intrinsic),.. 阅读全文

posted @ 2013-05-19 14:50 刚开始 阅读(1849) 评论(2) 推荐(0) 编辑

2013年5月14日

局部特征(6)——局部特征描述汇总

摘要: 找到了一篇比较好的关于几种重要局部特征的综述,原文地址:http://www.sigvc.org/bbs/thread-165-1-1.html。如果有谁找到更加丰富的,涉及到HOG、LBP等特征一起加以比较的文章,请告诉我,一起分享。 转载本文请注明出处:http://blog.csdn.net/jiang1st2010/article/details/8909709-----------------------------------------------------------------------------------------------------------------. 阅读全文

posted @ 2013-05-14 15:52 刚开始 阅读(533) 评论(0) 推荐(0) 编辑

局部特征(5)——如何利用彩色信息 Color Descriptors

摘要: 转载请注明出处:http://www.cnblogs.com/jiang1st2010/archive/2013/05/14/3077937.html 前面两讲中主要是针对SIFT和SURF做了一些介绍。他们的检测子比较稳定,描述子比较鲁棒,好像非常棒的样子。但是有一点非常遗憾,就是他们在对图像进行处理的过程中,都把图像转化为灰度图像进行处理,这样就丢失了颜色信息。而颜色,本身提供了很大的信息量,丢失了特别可惜。很多人可能就会想,如何在描述子中加入颜色信息。在这一讲中,我们就重点介绍一下改进的SIFT/SURF的Color Descriptor。 这里的Descriptor,其实我... 阅读全文

posted @ 2013-05-14 15:51 刚开始 阅读(319) 评论(0) 推荐(0) 编辑

局部特征(4)——SIFT和SURF的比较

摘要: (转载请注明来源: http://blog.csdn.net/jiang1st2010/article/details/6567452)共同点:SIFT/SURF为了实现不同图像中相同场景的匹配,主要包括三个步骤:1、尺度空间的建立;2、特征点的提取;3、利用特征点周围邻域的信息生成特征描述子4、特征点匹配。 从博客上看到一片文章,http://blog.csdn.net/cy513/archive/2009/08/05/4414352.aspx,这一段的大部分内容源于这篇文章,推荐大家去看看。 如果两幅图像中的物体一般只是旋转和缩放的关系,加上图像的亮度及对比度的不同,要在这些条... 阅读全文

posted @ 2013-05-14 15:50 刚开始 阅读(497) 评论(0) 推荐(0) 编辑

局部特征(3)——SURF特征总结

摘要: 第一部分:兴趣点的检测1、 建立积分图。优点:任何一个垂直矩形区域的面积只需要进行3次 +/-法就能计算。一阶的haar小波响应只要5次+/-法就能计算。计算的时间和区域大小无关。2、 建立图像的尺度空间(应该分别有Dxx、Dxy、Dyy 三个尺度金字塔):用box filters代替二阶高斯差分模板。保持图像的大小不变,对box filters进行尺度变换:建立高斯金字塔,金字塔分为多个Octaves,每个Octave分为4个Scale levels。第一级的Octave的模块大小为9、15、21、27(相差6),第二级为15、27、39、51(相差12),第三级为27、51、75、99(相 阅读全文

posted @ 2013-05-14 15:49 刚开始 阅读(583) 评论(0) 推荐(0) 编辑

局部特征(2)——Harris角点

摘要: 转载请注明此文来源: http://www.cnblogs.com/jiang1st2010/archive/2013/05/14/3077924.html在入门篇中偶尔谈到了Harris Corner,在这里我们就重点聊一聊Harris Corner。Harris Corner是最典型的角点检测子Corner Detector。角点经常被检测在边缘的交界处、被遮挡的边缘、纹理性很强的部分。满足这些条件一般都是稳定的、重复性比较高的点,所以实际上他们是不是角点并不重要(因为我们的目标就是找一些稳定、重复性高的点以作为特征点)。Harris Corner基于二阶矩阵:这个矩阵描述了局部邻域内梯度 阅读全文

posted @ 2013-05-14 15:46 刚开始 阅读(339) 评论(0) 推荐(0) 编辑

局部特征(1)——入门篇

摘要: 转载请注明来源:http://www.cnblogs.com/jiang1st2010/archive/2013/05/14/3077919.html局部特征 (local features),是近来研究的一大热点。大家都了解全局特征(global features),就是方差、颜色直方图等等。如果用户对整个图像的整体感兴趣,而不是前景本身感兴趣的话,全局特征用来描述总是比较合适的。但是无法分辨出前景和背景却是全局特征本身就有的劣势,特别是在我们关注的对象受到遮挡等影响的时候,全局特征很有可能就被破坏掉了。而所谓局部特征,顾名思义就是一些局部才会出现的特征,这个局部,就是指一些能够稳定出现并且 阅读全文

posted @ 2013-05-14 15:45 刚开始 阅读(702) 评论(0) 推荐(0) 编辑

2013年5月12日

Dirichlet Process 和 Hierarchical Dirichlet Process

摘要: 最近在看Dirichlet分布以及Dirichlet过程,因为最近感觉Dirichlet过程在聚类以及一些贝叶斯模型上使用很多。参考了很多资料,其中这篇博客介绍HDP算是比较清楚的了,原文链接是http://hi.baidu.com/zentopus/item/46a622f5ef13e4c5a835a28e另外关于Dirichlet Process还有以下文献可以参考:1.http://blog.sina.com.cn/s/blog_a8fead9b01016a07.html2.http://www.douban.com/note/27485867/3.http://blog.csdn... 阅读全文

posted @ 2013-05-12 15:41 刚开始 阅读(1202) 评论(0) 推荐(0) 编辑

导航