摘要:
今天主要学习 1.linux 2.java 3.ML算法 4.项目 u:user,所有者; g:group,所属组; o:others,其他人; a:all, 所有人; =:权限赋值 精准名称搜索,正则表达式 updatedb 用于更新资料库 tmp文件不在资料库中 locate i 不区分大小写 阅读全文
摘要:
今天主要学习: linux 做项目 ML算法 linux学习 "linux教程链接" 命令格式 命令基本格式: 命令 [选项][参数] 说明: 1.简化选项 a; 完整选项 all; 2.选项可组合 3.个别不遵循 4.隐藏文件通过改名实现 .test "命令合集" 目录处理命令 mkdir p 递 阅读全文
摘要:
Adaboost算法及其代码实现 算法概述 AdaBoost(adaptive boosting),即自适应提升算法。 Boosting 是一类算法的总称,这类算法的特点是通过训练若干弱分类器,然后将弱分类器组合成强分类器进行分类。 为什么要这样做呢?因为弱分类器训练起来很容易,将弱分类器集成起来, 阅读全文
摘要:
SMO算法 SVM(3) 利用SMO算法解决这个问题: SMO算法的基本思路 : SMO算法是一种启发式的算法(别管启发式这个术语, 感兴趣可了解), 如果所有变量的解都满足最优化的KKT条件, 那么最优化问题就得到了。 每次只优化两个 , 将问题转化成很多个 二次规划 的子问题, 直到所有的解都满 阅读全文
摘要:
非线性支持向量机SVM 对于线性不可分的数据集, 我们引入了 核 (参考: "核方法·核技巧·核函数" ) 线性支持向量机的算法如下: 将线性支持向量机转换成 非线性支持向量机 只需要将 变为 核函数 即可: 非线性支持向量机的算法如下: 阅读全文
摘要:
问题的引入 对于线性可分或者线性近似可分的数据集, 线性支持向量机可以很好的划分,如图左。但是,对于图右的数据集呢?很显然, 这个数据集是没有办法用直线分开的。 我们的想法是在低维空间中不能线性分割的点集,通过转化为高维空间中的点集时,很有可能变为线性可分的。 插个题外话:看过《三体》的小伙 阅读全文
摘要:
线性可分支持向量机与软间隔最大化 SVM 给定线性可分的数据集 假设输入空间(特征向量)为 ,输出空间为 。 输入 表示实例的特征向量,对应于输入空间的点; 输出 表示示例的类别。 我们说可以通过 间隔最大化 或者等价的求出相应的 凸二次规划问题 得到的 分离超平面 以及决策函数: 但是,上述的解决 阅读全文
摘要:
![](https://img2018.cnblogs.com/blog/1612966/201911/1612966-20191113144827341-456665084.png) 阅读全文
摘要:
概述 在机器学习中, 感知机(perceptron) 是二分类的线性分类模型,属于监督学习算法。输入为实例的特征向量,输出为实例的类别(取+1和 1)。 感知机对应于输入空间中将实例划分为两类的分离 超平面 。感知机旨在求出该超平面,为求得超平面导入了基于误分类的损失函数,利用 梯度下降法 对损失函 阅读全文
摘要:
import pandas as pd %pylab 一.使用numpy创建 df = pd.DataFrame(np.arange(16).reshape((4,4)), index=list('abcd'), columns=['one','two','three','four']) df 二. 阅读全文