05 2015 档案
摘要:百度地图的SDK变化较大,第一行代码里的demo已经不能用了,一直以为是代码类错误,害我花了很多时间,可以参考这位博主的:http://blog.csdn.net/lmj623565791/article/details/37729091 发现这位博主将其录成了视频:http://w...
阅读全文
摘要:参考:http://www.52ml.net/16296.html 这个算法的优点就在于,它首先一步就能找到聚类中心,然后划分类别。而其他算法需要反复迭代才能找到中心聚类。 就是不知道代码该怎么写。。。。。。。
阅读全文
摘要:活动的生命周期: 启动时函数调用的顺序: 启动活动时,调用oncreate(),onstart(),onResume()函数。当另一个正常活动启动时,把主活动遮挡住,会调用onpause(),onstop()函数, 按下返回键后,会调用onrestart(),onstart(),o...
阅读全文
摘要:参考:http://www.cnblogs.com/ywl925/p/3275878.html这个模型主要用于信息检索,但它的思想用于图像也未尝不可。TFIDF的主要思想是:如果某个词或短语在一篇文章中出现的频率TF高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类...
阅读全文
摘要:首先学会手动创建一个活动: 首先在包下面创建一个活动类,让它继承自Activity类,项目中的任何活动都应该重写 Activity 的 onCreate()方法。 创建和加载布局:在res/layout目录下,新建Android XML File...
阅读全文
摘要:这部分主要讲形态学的,回头把代码跑跑再来说下代码的感受:http://blog.csdn.net/poem_qianmo/article/details/24599073
阅读全文
摘要:这次主要学习了下滤波,就当复习了图像处理的知识了:http://blog.csdn.net/poem_qianmo/article/details/22745559代码实现比较简单,但关于通过滚动条来调用回调函数那段代码值得注意,要学会使用回调函数。
阅读全文
摘要:这是 Quora上的一篇文章:http://www.quora.com/What-is-an-eigenvector-of-a-covariance-matrix 协方差矩阵最大特征值对应的特征向量的方向,就是数据变化最大的方向。其他特征向量依次正交。
阅读全文
摘要:参考:http://www.cnblogs.com/jerrylead/archive/2011/04/19/2021071.html 对高斯分布的样本点效果不好。数学真是博大精深啊
阅读全文
摘要:理论部分可以看斯坦福大学的那份讲义,通俗易懂:http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html opencv中有PCA这个类,具体的实现可参考:http://www.cnblogs.com/zcftech/archive
阅读全文
摘要:今天的计算机视觉课老师讲了不少内容,不过都是大概讲了下,我先记录下,细讲等以后再补充。 SIFT特征: 尺度不变性:用不同参数的高斯函数作用于图像(相当于对图像进行模糊,得到不同尺度的图像),用得到的图像作差,找极值(相 当于穷举不同尺度空间的图像,找其特征点,在不同尺度下,都在...
阅读全文
摘要:对于线性回归式Y=wtX,y中的每个特征都与x的所有特征相关联,但无法表示y的各个特征之间的联系。 为此需要将整体表示成Y和X各自特征间的线性组合,也就是考察aTx和bTy之间的关系,用相关系数表示, 因此,问题就转化为求一组a,b使得相关系数最大,用拉格朗日求解。
阅读全文
摘要:View Code参考:http://blog.csdn.net/poem_qianmo/article/details/20537737 这位同学挺牛的,才研一就出书了,实在是让人汗颜啊,不说了,多学习。 这一篇主要讲了opencv中的几个基本函数imread,namewindow,i...
阅读全文
摘要:SVM上:这个算法应该是机器学习这门课里最重要的部分了。 首先是SVM的思想:找到超平面,将两类中距离最近的点分的越开越好(直至二者相等)。 然后是函数间隔和几何间隔的定义,二者之间的区别。 接着是超平面模型的建立,看看它是如何将问题转化为凸优化问题的。 SVM第一个...
阅读全文
摘要:转自:http://www.cvchina.net/post/151.html 这篇文章主要介绍了一些常用算法的优缺点,言简意赅,不错。
阅读全文
摘要:感知机:这是最简单的一个机器学习算法,不过有几点还是要注意一下。 首先是损失函数的选取,还有为了使损失函数最小,迭代过程采用的梯度下降法,最后得到最优的w,b 直观解释就是,调整w,b的值,使分离超平面向误分类点移动,以减小误分点与超平面的距离,直至超平面 ...
阅读全文
摘要:《统计学习方法》这本书上写的太抽象,可参考这位大神的:http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006924.html
阅读全文
摘要:参考:http://www.cnblogs.com/king1302217/archive/2011/01/04/1925249.html
阅读全文