上一页 1 ··· 7 8 9 10 11 12 13 14 下一页
摘要: 在集成学习之Adaboost算法原理小结中,我们对Boosting家族的Adaboost算法做了总结,本文就对Boosting家族中另一个重要的算法梯度提升树(Gradient Boosting Decison Tree, 以下简称GBDT)做一个总结。GBDT有很多简称,有GBT(Gradient 阅读全文
posted @ 2016-12-07 19:59 刘建平Pinard 阅读(335517) 评论(617) 推荐(67) 编辑
摘要: 在集成学习之Adaboost算法原理小结中,我们对Adaboost的算法原理做了一个总结。这里我们就从实用的角度对scikit-learn中Adaboost类库的使用做一个小结,重点对调参的注意事项做一个总结。 1. Adaboost类库概述 scikit-learn中Adaboost类库比较直接, 阅读全文
posted @ 2016-12-06 19:41 刘建平Pinard 阅读(98379) 评论(117) 推荐(30) 编辑
摘要: 在集成学习原理小结中,我们讲到了集成学习按照个体学习器之间是否存在依赖关系可以分为两类,第一个是个体学习器之间存在强依赖关系,另一类是个体学习器之间不存在强依赖关系。前者的代表算法就是是boosting系列算法。在boosting系列算法中, Adaboost是最著名的算法之一。Adaboost既可 阅读全文
posted @ 2016-12-05 22:26 刘建平Pinard 阅读(166664) 评论(362) 推荐(70) 编辑
摘要: 集成学习(ensemble learning)可以说是现在非常火爆的机器学习方法了。它本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务。也就是我们常说的“博采众长”。集成学习可以用于分类问题集成,回归问题集成,特征选取集成,异常点检测集成等等,可以说所有的机器学习领域都 阅读全文
posted @ 2016-12-04 20:48 刘建平Pinard 阅读(101345) 评论(55) 推荐(65) 编辑
摘要: 在支持向量机(以下简称SVM)的核函数中,高斯核(以下简称RBF)是最常用的,从理论上讲, RBF一定不比线性核函数差,但是在实际应用中,却面临着几个重要的超参数的调优问题。如果调的不好,可能比线性核函数还要差。所以我们实际应用中,能用线性核函数得到较好效果的都会选择线性核函数。如果线性核不好,我们 阅读全文
posted @ 2016-12-02 21:59 刘建平Pinard 阅读(41350) 评论(60) 推荐(18) 编辑
摘要: 之前通过一个系列对支持向量机(以下简称SVM)算法的原理做了一个总结,本文从实践的角度对scikit-learn SVM算法库的使用做一个小结。scikit-learn SVM算法库封装了libsvm 和 liblinear 的实现,仅仅重写了算法了接口部分。 1. scikit-learn SVM 阅读全文
posted @ 2016-11-30 16:47 刘建平Pinard 阅读(47132) 评论(40) 推荐(11) 编辑
摘要: 支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在前四篇里面我们讲到了SVM的线性分类和非线性分类,以及在分类时用到的算法。这些都关注 阅读全文
posted @ 2016-11-29 16:53 刘建平Pinard 阅读(42099) 评论(41) 推荐(11) 编辑
摘要: 支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在SVM的前三篇里,我们优化的目标函数最终都是一个关于$\alpha$向量的函数。而怎 阅读全文
posted @ 2016-11-29 00:11 刘建平Pinard 阅读(77289) 评论(173) 推荐(35) 编辑
摘要: 支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在前面两篇我们讲到了线性可分SVM的硬间隔最大化和软间隔最大化的算法,它们对线性可分的 阅读全文
posted @ 2016-11-26 11:33 刘建平Pinard 阅读(36506) 评论(43) 推荐(14) 编辑
摘要: 支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在支持向量机原理(一) 线性支持向量机中,我们对线性可分SVM的模型和损失函数优化做了 阅读全文
posted @ 2016-11-25 14:21 刘建平Pinard 阅读(43718) 评论(73) 推荐(20) 编辑
上一页 1 ··· 7 8 9 10 11 12 13 14 下一页