摘要: 参考文献:https://www.zhihu.com/question/30094611 作者:史博链接:https://www.zhihu.com/question/30094611/answer/275172932来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 千 阅读全文
posted @ 2021-12-26 14:41 常给自己加个油 阅读(851) 评论(0) 推荐(0) 编辑
摘要: 文章目录降维算法 PCA一、数据维度概念二、skLearn中的降维算法三、PCA与SVD① 降维的实现步骤解析② 重要参数n_components• 累积可解释方差贡献率曲线• 最大似然估计自选超参数• 按信息量占比选超参数③ 重要参数 svd_solver④ 重要属性 components_• 迷 阅读全文
posted @ 2021-12-26 14:28 常给自己加个油 阅读(1040) 评论(0) 推荐(0) 编辑
摘要: 认识高斯朴素贝叶斯class sklearn.naive_bayes.GaussianNB (priors=None, var_smoothing=1e-09)如果Xi是连续值,通常Xi的先验概率为高斯分布(也就是正态分布),即在样本类别Ck中,Xi的值符合正态分布。以此来估计每个特征下每个类别上的 阅读全文
posted @ 2021-12-26 11:25 常给自己加个油 阅读(1678) 评论(0) 推荐(0) 编辑