摘要: 1、朴素贝叶斯 朴素贝叶斯是使用概率论来分类的算法。其中朴素:各特征条件独立;贝叶斯:根据贝叶斯定理。 根据贝叶斯定理,对一个分类问题,给定样本特征B,样本属于类别A的概率是: 2、算法特点 优点: 在数据较少的情况下仍然有效,可以处理多类别问题。 缺点: 对于输入数据的准备方式较为敏感。 适用数据 阅读全文
posted @ 2019-05-05 11:25 滅盤 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 什么是kernel Kernel的其实就是将向量feature转换与点积运算合并后的运算,如下, 概念上很简单,但是并不是所有的feature转换函数都有kernel的特性。 常见kernel 常见kernel有多项式,高斯和线性,各有利弊。 kernel SVM 在非线性的SVM算法中,如何将一组 阅读全文
posted @ 2019-04-25 23:44 滅盤 阅读(2581) 评论(0) 推荐(0) 编辑
摘要: 1.1. SVM介绍 SVM(Support Vector Machines)——支持向量机。其含义是通过支持向量运算的分类器。其中“机”的意思是机器,可以理解为分类器。 1.2. 工作原理 在最大化支持向量到超平面距离前,我们首先要定义我们的超平面f(x)(称为超平面的判别函数,也称给w和b的泛函 阅读全文
posted @ 2019-04-25 22:16 滅盤 阅读(247) 评论(0) 推荐(0) 编辑
摘要: 逻辑回归 1、逻辑函数 sigmoid函数就出现了。这个函数的定义如下: sigmoid函数具有我们需要的一切优美特性,其定义域在全体实数,值域在[0, 1]之间,并且在0点值为0.5。 那么,如何将f(x)转变为sigmoid函数呢?令p(x)=1为具有特征x的样本被分到类别1的概率,则p(x)/ 阅读全文
posted @ 2019-04-11 20:19 滅盤 阅读(588) 评论(0) 推荐(0) 编辑
摘要: 多项式线性回归 1、多项式线性方程: 与多元线性回归相比,它只有一个自变量,但有不同次方数。 2、举例: 阅读全文
posted @ 2019-04-02 17:28 滅盤 阅读(390) 评论(0) 推荐(0) 编辑
摘要: 多元线性回归 1、多元线性回归方程和简单线性回归方程类似,不同的是由于因变量个数的增加,求取参数的个数也相应增加,推导和求取过程也不一样。、 y=β0+β1x1+β2x2+ ... +βpxp+ε 对于b0、b1、…、bn的推导和求取过程,引用一个第三方库进行计算 2、应用多元线性回归的几个限定条件 阅读全文
posted @ 2019-03-27 22:29 滅盤 阅读(1333) 评论(0) 推荐(0) 编辑
摘要: 简单线性回归 1、研究一个自变量(X)和一个因变量(y)的关系 简单线性回归模型定义:y=β0+β1x+ε 简单线性回归方程:E(y)=β0+β1x 其中: β0为回归线的截距 β1为回归线的斜率 通过训练数据,求取出估计参数建立的直线方程: 实际编程时,主要是根据已知训练数据,估计出β0和β1的值 阅读全文
posted @ 2019-03-27 21:32 滅盤 阅读(295) 评论(0) 推荐(0) 编辑
摘要: 数据预处理模板(1)导入标准库(2)导入数据集(3)缺失和分类很少遇到(4)将数据集分割为训练集和测试集(5)特征缩放,大部分情况下不需要,但是某些情况需要特征缩放 阅读全文
posted @ 2019-03-17 15:03 滅盤 阅读(440) 评论(0) 推荐(0) 编辑