摘要: SVM数学知识具体参考: https://blog.csdn.net/zhangping1987/article/details/21931663 数学知识补充 对于线性可分的超平面 既然能线性可分,那么就有超平面(向量化表示)将这数据集分开,使得一侧是“+1”类,另一侧是“-1类”。 第一个知识点 阅读全文
posted @ 2019-06-22 13:50 喂你在哪 阅读(356) 评论(0) 推荐(0) 编辑
摘要: 参考:https://www.cnblogs.com/pinard/p/6069267.html 以及:https://blog.csdn.net/qq_32690999/article/details/78737393 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集 阅读全文
posted @ 2019-06-22 13:24 喂你在哪 阅读(178) 评论(0) 推荐(0) 编辑
摘要: KNN做回归和分类的主要区别在于最后做预测时候的决策方式不同。KNN做分类预测时,一般是选择多数表决法,即训练集里和预测的样本特征最近的K个样本,预测为里面有最多类别数的类别。而KNN做回归时,一般是选择平均法,即最近的K个样本的样本输出的平均值作为回归预测值。 KNN的三要素:k值的选取,距离度量 阅读全文
posted @ 2019-06-22 12:51 喂你在哪 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 1.何为稀疏线性关系? 稀疏线性关系的意思就是绝大多数的特征和样本输出没有关系,线性拟合后这些特征维度的系数会全部为0,只有少量和输出相关的特征的回归系数不为0,这就是“稀疏线性关系”。 2.何为鲁棒性、归纳偏好和奥卡姆剃刀原理? 1)鲁棒性一般指模型的健壮性、稳定性、泛化性。 2)归纳偏好:机器学 阅读全文
posted @ 2019-06-22 10:57 喂你在哪 阅读(813) 评论(0) 推荐(0) 编辑
摘要: 一.特征提取和特征选择的区别 特征选择和降维(特征提取)有着些许的相似点,这两者达到的效果是一样的,就是试图去减少特征数据集中的属性(或者称为特征)的数目;但是两者所采用的方式方法却不同:降维的方法主要是通过属性间的关系,如组合不同的属性得到新的属性,这样就改变了原来的特征空间;而特征选择的方法是从 阅读全文
posted @ 2019-06-22 10:29 喂你在哪 阅读(24292) 评论(0) 推荐(1) 编辑