摘要: SVMtrain的参数c和g的优化在svm训练过程中,需要对惩罚参数c和核函数的参数g进行优化,选取最好的参数知道测试集标签的情况下是让两个参数c和g在某一范围内取离散值,然后,取测试集分类准确率最佳的参数不知道测试集标签的情况下 (1)利用交叉验证的方法:(k-fold cross validation)Start bestAccuracy = 0 bestc = 0 bestg = 0 ... 阅读全文
posted @ 2017-06-26 21:12 晨凫追风 阅读(9366) 评论(0) 推荐(0) 编辑
摘要: 从二分类到多分类的迁移策略一般情况下问题研究为二分类问题,在解决多分类问题时有时可以直接推广到多分类,有时不能,不能推广的时候主要用三种拆分策略对问题进行研究 一对一的策略给定数据集这里有个类别,这种情况下就是将这些类别两两配对,从而产生个二分类任务,在测试的时候把样本交给这些分类器,然后进行投票 一对其余策略将每一次的一个类作为正例,其余作为反例,总共训练个分类器。测试的时候若仅有一个分类... 阅读全文
posted @ 2017-06-26 21:08 晨凫追风 阅读(727) 评论(0) 推荐(0) 编辑
摘要: LDA线性判别分析给定训练集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能的近,异类样例点尽可能的远,对新样本进行分类的时候,将新样本同样的投影,再根据投影得到的位置进行判断,这个新样本的类别LDA二维示意图。用‘+’表示正类“-”表示负类,两个投影,实心三角形和圆表示投影中心二分类:给定数据集:第类的样本集合:第类的均值向量:第类的协方差矩阵将数据投影在直线上,则两类样本的中心点在直... 阅读全文
posted @ 2017-06-26 20:58 晨凫追风 阅读(600) 评论(0) 推荐(0) 编辑
摘要: 极大似然法估计欢迎关注我的博客:http://www.cnblogs.com/xujianqing/举个例子:张无忌和宋青书分别给周芷若送一个糖果,周芷若最后只接受一个糖果,问周芷若接受了谁的糖果。大部分的人肯定会说,当然是张无忌了。这里面就蕴含了极大似然的思想。因为周芷若接受张无忌的概率大于宋青书呀,而故事的最后周芷若接受了一颗糖果这个事实发生了,所以我们自然选择发生概率大的那个了。一个函数总... 阅读全文
posted @ 2017-06-26 20:55 晨凫追风 阅读(597) 评论(0) 推荐(0) 编辑
摘要: 概率统计欢迎关注我的博客:http://www.cnblogs.com/xujianqing/ 条件概率设和是任意两个事件,且,则称为事件在事件发生的条件下发生的条件概率。记作:这里可以理解是,在事件发生的情况里面去寻找事件也在的例子,就是条件概率,有一种归一化的感觉,也有一种找出全局,再去挑局部的概念。引入一个定理:(两个事件的积的概率)=(其中一个事件的概率)(另一个事件在前面一个事件发生... 阅读全文
posted @ 2017-06-26 20:53 晨凫追风 阅读(710) 评论(0) 推荐(0) 编辑