上一页 1 ··· 63 64 65 66 67 68 69 70 71 ··· 270 下一页
摘要: PCA和LDA区别:PCA选择的是投影后数据方差最大的方向。由于它是无监督的,因此PCA假设方差越大,信息量越多,用主成分来表示原始数据可以去除冗余的维度,达到降维。而LDA选择的是投影后类内方差小、类间方差大的方向。其用到了类别标签信息,为了找到数据中具有判别性的维度,使得原始数据在这些方向上投影 阅读全文
posted @ 2021-08-05 22:05 bonelee 阅读(1077) 评论(0) 推荐(0) 编辑
摘要: 历史回顾:1984年提出的cart,1986年提出的ID3,1993年提出的c4.5 理论上总的来说,C4.5是基于ID3优化后产出的算法,主要优化了关于节点分支的计算方式,优化后解决了ID3分支过程中总喜欢偏向取值较多的属性ID3是信息增益分支: 而CART一般是GINI系数分支: C4.5一般是 阅读全文
posted @ 2021-08-05 21:14 bonelee 阅读(1357) 评论(0) 推荐(0) 编辑
摘要: Google使用一套超参数调优算法来烘焙更美味的饼干“超参数调优”和“烘焙饼干”这两件事情,乍一听感觉风马牛不相及,但细想一下,似乎又有一定的相似之处——“黑盒优化”。结构复杂的深度学习模型某种程度上就是一个黑盒,为实现更好的优化目标,我们不断进行“超参数调优”来优化这个黑盒。烘焙饼干似乎也是类似的 阅读全文
posted @ 2021-08-05 16:26 bonelee 阅读(407) 评论(0) 推荐(0) 编辑
摘要: Machine learning.简单绘制ROC曲线 ROC曲线,又可以称之为接受者操作特征曲线(Receiver Operating Characteristic Curve),ROC曲线下的面积,称为AUC(Area Under Cureve),可以衡量评估二分类模型的分类好坏。 本文视图使用P 阅读全文
posted @ 2021-08-05 11:09 bonelee 阅读(5181) 评论(1) 推荐(0) 编辑
摘要: 《白面机器学习》 阅读全文
posted @ 2021-08-04 22:22 bonelee 阅读(63) 评论(0) 推荐(0) 编辑
摘要: 来自《白面机器学习》 阅读全文
posted @ 2021-08-04 21:10 bonelee 阅读(111) 评论(0) 推荐(0) 编辑
摘要: 数据挖掘之一——M5P树状回归演算法 如果哪天你看到了这个文章,说明你是xixi,真怀念一起读博士的日子啊。 Tags: 数据挖掘 M5P树状回归 回归演算法 M5P树状回归演算法可根据资料的分布建立多种回归模型,依据输入资料的不同来决定适用的回归模型。 比起传统的线性回归,M5P能够准确预测非线性 阅读全文
posted @ 2021-08-04 20:17 bonelee 阅读(2062) 评论(0) 推荐(0) 编辑
摘要: 异常检测之One class svm 简书 2020-01-01 19:05 OneCLassSVM是一种novelty detection方法:它的训练集不应该掺杂异常点,因为模型可能会去匹配这些异常点。但在数据维度很高,或者对相关数据分布没有任何假设的情况下,OneClassSVM也可以作为一种 阅读全文
posted @ 2021-08-04 20:10 bonelee 阅读(2418) 评论(0) 推荐(0) 编辑
摘要: # coding:utf-8 import requests # 请求地址 # url = "https://www.qlchat.com" url = "https://www.baidu.com" headers = { 'user-agent': 'Mozilla/5.0 (Windows N 阅读全文
posted @ 2021-08-04 17:40 bonelee 阅读(406) 评论(0) 推荐(0) 编辑
摘要: chrome-extension://bocbaocobfecmglnmeaeppambideimao/pdf/viewer.html?file=https%3A%2F%2Fwww.cybereason.com%2Fhubfs%2Fdam%2Fcollateral%2Freports%2Fgartn 阅读全文
posted @ 2021-08-02 21:35 bonelee 阅读(105) 评论(0) 推荐(0) 编辑
上一页 1 ··· 63 64 65 66 67 68 69 70 71 ··· 270 下一页