08 2015 档案
摘要:从今天开始,准备入DL的大坑,希望自己能坚持下来。 网上有不少介绍: 深度学习的历 史:http://www.goldencui.org/2014/12/02/%E7%AE%80%E6%98%8E%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%96%...
阅读全文
摘要:关于这个算法,已经有网友写出笔记。 这位网友用画图的方式总结出了算法的各个流程,并总结了源码中的各个类:http://blog.csdn.net/roamer_nuptgczx/article/details/47953357#plain 这篇博文分析了聚类算法:http://blog.csdn.n
阅读全文
摘要:转自:http://www.cnblogs.com/qlee/archive/2011/05/16/2048026.html vector 的reserve增加了vector的capacity,但是它的size没有改变!而resize改变了vector的capacity同时也增加了它的size!原因
阅读全文
摘要:单目标(表观模型):1.Seunghoon Hong,BohyungHan.Orderless Trackingthrough Model-Averaged Density Estimation. (Offline tracking?和一般的object tracking还是不一样的。 CVPR12...
阅读全文
摘要:2015年的一篇论文,可参考:http://blog.csdn.net/carrierlxksuper/article/details/46461245。 另参考:http://www.skyoung.org/kcf-tracking-method/ 其中提到了redge regression(岭回
阅读全文
摘要:参考:http://blog.csdn.net/yang_xian521/article/details/7533922
阅读全文
摘要:参考:http://blog.csdn.net/wuyanyi/article/details/8003946 http://www.cnblogs.com/boqun1991/p/4063575.html
阅读全文
摘要:昨天刚开学,现在已经正式研二了,想想时间过得可真快啊,一眨眼的功夫。暑假没回家,一直留在这,但什么东西都没做出来,实在惭愧啊。仔细想想,自从读研以来,我就没做出过什么东西,感觉自己挺努力的,但实际上呢?以后在这个博客里,我想不仅写和技术有关的东西,还想写一写自己近来对自己的反思和感悟,写下自己...
阅读全文
摘要:参考:http://www.cnblogs.com/vamei/archive/2013/01/30/2879700.html http://blog.csdn.net/ywjun0919/article/details/8692018
阅读全文
摘要:参考:http://www.cnblogs.com/ronny/p/4083537.html ORB特征包括FAST特征检测和BRIEF特征描述符,这篇博客介绍的浅显易懂:http://blog.csdn.net/yang843061497/article/details/3855...
阅读全文
摘要:一个好的特征描述子,要有好的区分性、尺度和旋转不变性以及鲁棒性(光照等)。SIFT可能说是最经典的 特征描述方法了,其主要分成下面四步: (1)尺度空间选择:在尺度空间中选择潜在的满足尺度不变和旋转不变的关键点; 关于尺度空间,先对图像做高斯金字塔(包括高斯模糊和降维),再做拉普拉斯金字塔(需要做内
阅读全文
摘要:可参考:http://www.cnblogs.com/ronny/p/4009425.html http://www.cnblogs.com/ztfei/archive/2012/05/07/2487123.html http://blog.csdn.net/crzy_sparrow/...
阅读全文
摘要:参考:http://blog.csdn.net/abcd1992719g/article/details/27071273 http://www.cnblogs.com/ronny/p/3895883.html#3036526 这两位博主都实现了这个算法,里面有很多细节,还是...
阅读全文
摘要:看到一篇博文,主要讲的是图像金字塔:http://www.cnblogs.com/ronny/p/3886013.html 最后博主关于尺度的选择很有启发性,当我们不知道物体的尺度有多大时,可以先定义一个模板,再与金字塔的每层图像进行匹配。#include "opencv2/core/core.h...
阅读全文
摘要:参考:http://www.cnblogs.com/ronny/p/4045979.html,博主对源码进行了分析,不过很多没看明白。 分为几个部分。积分图:借助积分图像,图像与高斯二阶微分模板的滤波转化为对积分图像的加减运算。在哈尔特征中也用到这个。 DoH近似:将...
阅读全文
摘要:很多ML模型用的都是数值特征,那么对于分类特征,该怎么做呢? 以linear network为例:先对特征进行转换,转换成有意义的特征后,再对其进行线性组合 进一步,模型可表示为:使Ein最小,我们就能知道如何转换特征,如何组合线性模型。 以给电影打分为例,我们实际上要做的,就是...
阅读全文
摘要:将Radial Basis Function与Network相结合。实际上衡量两个点的相似性:距离越近,值越大。 将神经元换为与距离有关的函数,就是RBF Network: 可以用kernel和RBF来衡量相似性: 那么...
阅读全文
摘要:参考:https://codesachin.wordpress.com/2015/08/05/on-the-biasvariance-tradeoff-in-machine-learning/ 之前一直没搞明白什么是bias,什么是variance,现在看看这篇博文。 当你的模型太简单...
阅读全文
摘要:深度学习面临的问题和现在解决的办法: 简要来说,分两步使用DL:初始化时一层一层的选择权重,而后再进行训练: 那么怎么做pre-training,即怎么选择权重呢?好的权重能够不改变原有资料的信息,即编码过后信息够解码过后仍能保持 ...
阅读全文
摘要:由perceptron线性组成的一个神经网络: 通过赋予g不同的权值,来实现不同的切分功能: 但有的切分只通过一次特征转换是不够的,需要多次转换,如下:Neural Network Hypothesis:为了便于优化,将sign(离散)变成tanh,这个函数相当于regression的拉伸与...
阅读全文
摘要:将Adaboost和decision tree相结合,需要注意的地主是,训练时adaboost需要改变资料的权重,如何将有权重的资 料和decision tree相结合呢?方法很类似于前面讲过的bagging,通过采样资料来使资料获得不同的权重。 一棵完全的树的权值...
阅读全文
摘要:这位博主总结的实在太好了,从原理到论文到代码,连论文都不用看:论文:http://blog.csdn.net/zouxy09/article/details/8118360 代码部分:http://blog.csdn.net/zouxy09/article/details/82101...
阅读全文
摘要:随机森林就是要将这我们之前学的两个算法进行结合:bagging能减少variance(通过g们投票),而decision tree的variance很大,资料不同,生成的树也不同。 为了得到不同的g,除了用bootstrap用不同的资料得到不同的g外,还可以采用随即选择特征的方式...
阅读全文
摘要:参考:http://www.cnblogs.com/GuoJiaSheng/p/4480497.html http://www.cnblogs.com/tornadomeet/archive/2012/04/12/2443993.html
阅读全文