摘要: sklearn中的数据集的划分 sklearn数据集划分方法有如下方法: KFold,GroupKFold,StratifiedKFold,LeaveOneGroupOut,LeavePGroupsOut,LeaveOneOut,LeavePOut,ShuffleSplit,GroupShuffle 阅读全文
posted @ 2017-10-13 21:43 tantao258 阅读(800) 评论(0) 推荐(0) 编辑
摘要: sklearn参数优化方法 http://www.cnblogs.com/nolonely/p/7007961.html 学习器模型中一般有两个参数:一类参数可以从数据中学习估计得到,还有一类参数无法从数据中估计,只能靠人的经验进行指定,后一类参数就叫超参数 比如,支持向量机里的C,Kernel,g 阅读全文
posted @ 2017-10-13 21:35 tantao258 阅读(373) 评论(0) 推荐(0) 编辑
摘要: SVM模型有两个非常重要的参数C与gamma。其中 C是惩罚系数,即对误差的宽容度。c越高,说明越不能容忍出现误差,容易过拟合。C越小,容易欠拟合。C过大或过小,泛化能力变差 gamma是选择RBF函数作为kernel后,该函数自带的一个参数。隐含地决定了数据映射到新的特征空间后的分布,gamma越 阅读全文
posted @ 2017-10-13 21:31 tantao258 阅读(9909) 评论(0) 推荐(0) 编辑
摘要: 转载:http://sbp810050504.blog.51cto.com/2799422/1269572 阅读全文
posted @ 2017-10-13 21:17 tantao258 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 转自 http://blog.csdn.net/jobbofhe/article/details/51426934 排序有内部排序和外部排序,内部排序是数据记录在内存中进行排序,而外部排序是因排序的数据很大,一次不能容纳全部的排序记录,在排序过程中需要访问外存。 我们这里说说八大排序就是内部排序。 阅读全文
posted @ 2017-10-13 20:37 tantao258 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 原文:http://blog.csdn.net/arthur503/article/details/19966891 1. 为什么一定要研究线性分类? 首先说一下为什么对数据集一定要说线性可分或线性不可分,难道不可以非线性分开吗?想要非线性分开当然可以,实际上SVM只是把原来线性不可分的数据点映射到 阅读全文
posted @ 2017-10-13 19:57 tantao258 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能 阅读全文
posted @ 2017-10-13 19:24 tantao258 阅读(194) 评论(0) 推荐(0) 编辑