上一页 1 ··· 27 28 29 30 31 32 33 34 35 ··· 40 下一页

2015年10月17日

摘要: 参考文献:深度学习历史:2006年,Hinton给出了突破的一步。2013年,李彦宏高调宣布成立深度学习研究院。目前,很多领域的state-of-the-art被深度学习占领。意义:通常,传统的方法需要手动提取特征:虽然,现在有许多牛逼的特征,如sift、hog特征,但是,手动提取特征很不方面,也不... 阅读全文
posted @ 2015-10-17 16:38 一动不动的葱头 阅读(788) 评论(0) 推荐(0) 编辑

2015年10月15日

摘要: reference:Struck: Structured Output Tracking with Kernelshot topic:tracking-by-detection methods, treated as a classifiction task, use online learning... 阅读全文
posted @ 2015-10-15 11:12 一动不动的葱头 阅读(823) 评论(0) 推荐(0) 编辑
摘要: reference:Hign-Speed Tracking with Kernelzied Correlation Filtersquestions:The core componet of most modern trackers is a discriminative classifier, t... 阅读全文
posted @ 2015-10-15 10:30 一动不动的葱头 阅读(353) 评论(0) 推荐(0) 编辑
摘要: 1、先读Abstract,掌握文章的目标,效果,方法。2、看看实验效果。3、看看有没有算法步骤。4、introduction5、related work6、model derived 阅读全文
posted @ 2015-10-15 09:41 一动不动的葱头 阅读(371) 评论(0) 推荐(0) 编辑

2015年10月14日

摘要: 参考《机器学习导论》假设我们有一个数据集,包含N个点。这N个点可以用2N种方法标记为正例和负例。因此,N个数据点可以定义2N种不同的学习问题。如果对于这些问题中的任何一个,我们都能够找到一个假设h属于H,将正例和负例分开,那么我们就称H散列N个点。也就是说,可以用N个点定义的任何学习问题都能够用一个... 阅读全文
posted @ 2015-10-14 21:54 一动不动的葱头 阅读(406) 评论(0) 推荐(0) 编辑
摘要: 参考文献: http://www.blogjava.net/zhenandaci/archive/2009/03/01/257237.html http://www.cnblogs.com/jerrylead/archive/2011/03/18/1988406.html NG的SVM课件 台湾大学 阅读全文
posted @ 2015-10-14 19:57 一动不动的葱头 阅读(2680) 评论(0) 推荐(0) 编辑

2015年10月11日

摘要: 参考文献:Yancheng Bai and Ming Tang.Robust Tracking via Weakly Supervised Ranking SVMAbstract通常的算法:utilize the object information contained in the current... 阅读全文
posted @ 2015-10-11 20:31 一动不动的葱头 阅读(487) 评论(0) 推荐(0) 编辑
摘要: Abstract问题:1)evaluation is often not suffcient2)biased for certain types of algorthms3)datasets do not have common ground-truth object positions or ex... 阅读全文
posted @ 2015-10-11 11:18 一动不动的葱头 阅读(1388) 评论(0) 推荐(0) 编辑

2015年10月8日

摘要: 参考:Convolutional Networks for Images, Speech, and Time-Series传统的特征提取:gathers relevant information from the input and eliminates irrelevant variablilit... 阅读全文
posted @ 2015-10-08 21:26 一动不动的葱头 阅读(915) 评论(0) 推荐(0) 编辑

2015年10月7日

摘要: Adaboost有几个难点: 1、弱分类器的权重怎么理解? 误差大的弱分类器权重小,误差小的弱分类器权重大。这很好理解。在台湾大学林轩田老师的视频中,推导说,这个权值实际上貌似梯度下降,权值定义成1/2ln((1-ε)/ε),实际上是有梯度下降,求梯度取最陡得到。 2、弱分类器怎么通常选啥 可以选树 阅读全文
posted @ 2015-10-07 15:15 一动不动的葱头 阅读(302) 评论(0) 推荐(1) 编辑
上一页 1 ··· 27 28 29 30 31 32 33 34 35 ··· 40 下一页

导航