摘要:
SVM数学知识具体参考: https://blog.csdn.net/zhangping1987/article/details/21931663 数学知识补充 对于线性可分的超平面 既然能线性可分,那么就有超平面(向量化表示)将这数据集分开,使得一侧是“+1”类,另一侧是“-1类”。 第一个知识点 阅读全文
摘要:
参考:https://www.cnblogs.com/pinard/p/6069267.html 以及:https://blog.csdn.net/qq_32690999/article/details/78737393 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集 阅读全文
摘要:
KNN做回归和分类的主要区别在于最后做预测时候的决策方式不同。KNN做分类预测时,一般是选择多数表决法,即训练集里和预测的样本特征最近的K个样本,预测为里面有最多类别数的类别。而KNN做回归时,一般是选择平均法,即最近的K个样本的样本输出的平均值作为回归预测值。 KNN的三要素:k值的选取,距离度量 阅读全文
摘要:
1.何为稀疏线性关系? 稀疏线性关系的意思就是绝大多数的特征和样本输出没有关系,线性拟合后这些特征维度的系数会全部为0,只有少量和输出相关的特征的回归系数不为0,这就是“稀疏线性关系”。 2.何为鲁棒性、归纳偏好和奥卡姆剃刀原理? 1)鲁棒性一般指模型的健壮性、稳定性、泛化性。 2)归纳偏好:机器学 阅读全文
摘要:
一.特征提取和特征选择的区别 特征选择和降维(特征提取)有着些许的相似点,这两者达到的效果是一样的,就是试图去减少特征数据集中的属性(或者称为特征)的数目;但是两者所采用的方式方法却不同:降维的方法主要是通过属性间的关系,如组合不同的属性得到新的属性,这样就改变了原来的特征空间;而特征选择的方法是从 阅读全文