2014年11月18日
摘要: 最近一个朋友问这方面的一些问题,其实之前也就很粗略的看了下fisher,真正帮别人解答问题的时候才知道原来自己也有很多东西不懂。下面小结下自己对fisher判别的理解: 其实fisher和PCA差不多,熟悉PCA的人都知道,PCA其实就是在寻找一个子空间。这个空间怎么来的呢,先求协方差矩阵,然后求这个协方差矩阵的特征空间(特征向量对应的空间),选取最大的特征值对应的特征向量组成特征... 阅读全文
posted @ 2014-11-18 20:31 Kevin.Tu 阅读(18864) 评论(2) 推荐(4) 编辑
  2014年11月14日
摘要: 极大似然估计,只是一种概率论在统计学的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次试验,观察其结果,利用结果推出参数的大概值。最大似然估计是建立在这样的思想上:已知某个参数能使这个样本出现的概率最大,我们当然不会再去选择其他小概率的样本,所以干脆就把这个参数作为估计的真实值。 我们先来假设这样一个问题:要求解人群... 阅读全文
posted @ 2014-11-14 16:06 Kevin.Tu 阅读(17613) 评论(1) 推荐(0) 编辑
  2014年11月13日
摘要: 最近把以前的几篇关于Low-rank的文章重新看了一遍,由于之前的一些积累,重新看一遍感觉收获颇多。写这篇博文的时候也参考了一些网上的博客,其中数这篇博文最为经典http://blog.csdn.net/abcjennifer/article/details/8572994。Rachel-zhan... 阅读全文
posted @ 2014-11-13 22:00 Kevin.Tu 阅读(5760) 评论(5) 推荐(2) 编辑
  2014年11月12日
摘要: 其实注册Blog有一段时间了,不过之前一直是在CSDN,不得不说CSDN那边确实热闹,在CSDN上写博客的用户确实是要比博客园多不少(至少平时查阅资料的时候有这种感受)。不过之前注册CSDN目的只是下载资源,根本没有写Blog的想法,更没有想过要把自己所学的知识写成文章记录在博客上。后来看过不少B... 阅读全文
posted @ 2014-11-12 16:08 Kevin.Tu 阅读(240) 评论(0) 推荐(0) 编辑
  2014年11月6日
摘要: 上个博文我讲了一些CNN相关的论文,比较浅显都是入门知识,这节课来总结一些稀疏表示方面的文章。至于上个博文说到的要讲的sparse coding的知识,我将会放在Deep Learning的专题里面讲解。好了,闲话不多说,下面还是列出几篇我看过的sparse representation方面的论文... 阅读全文
posted @ 2014-11-06 10:14 Kevin.Tu 阅读(1507) 评论(0) 推荐(0) 编辑
  2014年11月4日
摘要: 今天在跑《Robust Object Tracking via Sparsity-based Collaborative Model》这篇文章的代码时候,发现出现如下错误: 发现错误时由于vgg_kmiter这个c类型的函数引起的,于是百度查看先关知识,原来是没有编译vgg_kmiter引起的错... 阅读全文
posted @ 2014-11-04 14:48 Kevin.Tu 阅读(1422) 评论(0) 推荐(0) 编辑
摘要: 最近看到Andrew Ng的一篇论文,文中用到了Kmeans和DL结合的思想,突然发现自己对ML最基本的聚类算法都不清楚,于是着重的看了下Kmeans,并在网上找了程序跑了下。kmeans是unsupervised learning最基本的一个聚类算法,我们可以用它来学习无标签的特征,其基本思想如... 阅读全文
posted @ 2014-11-04 09:54 Kevin.Tu 阅读(3872) 评论(0) 推荐(0) 编辑
  2014年10月30日
摘要: 上一个博文,我们讲了Linear Regression, gradient descent, normal equations和Locally weighted linear regression,这次博文我们重点来学习Logistic regression,这是机器学习非常重要的一种回归模型,可... 阅读全文
posted @ 2014-10-30 20:40 Kevin.Tu 阅读(465) 评论(0) 推荐(0) 编辑
摘要: Likehood函数即似然函数,是概率统计中经常用到的一种函数,其原理网上很容易找到,这里就不讲了。这篇博文主要讲解Likelihood对回归模型的Probabilistic interpretation。在我们的回归模型中由于其他因素的影响我们的预测函数为: 其中 为影响预测的其他因素或者说噪... 阅读全文
posted @ 2014-10-30 19:59 Kevin.Tu 阅读(1644) 评论(0) 推荐(0) 编辑
  2014年10月28日
摘要: 由于最近在学习standford大学 Andrew Ng 大牛的机器学习视频,所以想对所学的方法做一个总结,后面所要讲到的算法主要是视频里面学到的机器学习领域常用的算法。在文中我们所要学的的算法主要有Linear Regression(线性回归),gradient descent(梯度下降法),normal equations(正规方程组),Locally weighted linear ... 阅读全文
posted @ 2014-10-28 18:19 Kevin.Tu 阅读(520) 评论(0) 推荐(0) 编辑