摘要: 搞过机器学习的同学都知道,L1正则就是绝对值的方式,而L2正则是平方和的形式。L1能产生稀疏的特征,这对大规模的机器学习灰常灰常重要。但是L1的求解过程,实在是太过蛋疼。所以即使L1能产生稀疏特征,不到万不得已,我们也还是宁可用L2正则,因为L2正则计算起来方便得多。。。 正则化项不应该以正则化的表 阅读全文
posted @ 2018-03-12 17:02 在路上-UP 阅读(1622) 评论(0) 推荐(0) 编辑
摘要: 无监督最近邻 NearestNeighbors (最近邻)实现了 unsupervised nearest neighbors learning(无监督的最近邻学习)。 它为三种不同的最近邻算法提供统一的接口:BallTree, KDTree, 还有基于 sklearn.metrics.pairwi 阅读全文
posted @ 2018-03-12 14:47 在路上-UP 阅读(1203) 评论(0) 推荐(0) 编辑
摘要: SVC介绍: 拟合出来的模型为一个超平面 解决与样本维数无关,适合做文本分类 解决小样本、非线性、高维 是用于分类、回归、孤立点检测的监督学习方法的集合。 优点: 有效的高维空间 维数大于样本数的时候仍然有效 在决策函数中使用训练函数的子集 通用(支持不同的内核函数:线性、多项式、 s 型等) 缺点 阅读全文
posted @ 2018-03-12 13:01 在路上-UP 阅读(305) 评论(0) 推荐(0) 编辑
摘要: 线性回归 Ridge 回归 (岭回归) Ridge 回归用于解决两类问题:一是样本少于变量个数,二是变量间存在共线性 RidgeCV:多个阿尔法,得出多个对应最佳的w,然后得到最佳的w及对应的阿尔法 Lasso 监督分类 估计稀疏系数的线性模型适用于参数少的情况,因其产生稀疏矩阵,可用与特征提取 s 阅读全文
posted @ 2018-03-12 11:22 在路上-UP 阅读(7658) 评论(0) 推荐(0) 编辑