关闭页面特效

11 2019 档案

摘要:SMO算法 SVM(3) 利用SMO算法解决这个问题: SMO算法的基本思路 : SMO算法是一种启发式的算法(别管启发式这个术语, 感兴趣可了解), 如果所有变量的解都满足最优化的KKT条件, 那么最优化问题就得到了。 每次只优化两个 , 将问题转化成很多个 二次规划 的子问题, 直到所有的解都满 阅读全文
posted @ 2019-11-19 22:15 hichens 阅读(237) 评论(0) 推荐(0) 编辑
摘要:非线性支持向量机SVM 对于线性不可分的数据集, 我们引入了 核 (参考: "核方法·核技巧·核函数" ) 线性支持向量机的算法如下: 将线性支持向量机转换成 非线性支持向量机 只需要将 变为 核函数 即可: 非线性支持向量机的算法如下: 阅读全文
posted @ 2019-11-17 10:16 hichens 阅读(908) 评论(0) 推荐(0) 编辑
摘要:问题的引入 ​ 对于线性可分或者线性近似可分的数据集, 线性支持向量机可以很好的划分,如图左。但是,对于图右的数据集呢?很显然, 这个数据集是没有办法用直线分开的。 ​ 我们的想法是在低维空间中不能线性分割的点集,通过转化为高维空间中的点集时,很有可能变为线性可分的。 插个题外话:看过《三体》的小伙 阅读全文
posted @ 2019-11-16 23:35 hichens 阅读(9764) 评论(1) 推荐(5) 编辑
摘要:线性可分支持向量机与软间隔最大化 SVM 给定线性可分的数据集 假设输入空间(特征向量)为 ,输出空间为 。 输入 表示实例的特征向量,对应于输入空间的点; 输出 表示示例的类别。 我们说可以通过 间隔最大化 或者等价的求出相应的 凸二次规划问题 得到的 分离超平面 以及决策函数: 但是,上述的解决 阅读全文
posted @ 2019-11-15 13:25 hichens 阅读(679) 评论(0) 推荐(0) 编辑
摘要:![](https://img2018.cnblogs.com/blog/1612966/201911/1612966-20191113144827341-456665084.png) 阅读全文
posted @ 2019-11-13 21:07 hichens 阅读(934) 评论(0) 推荐(0) 编辑
摘要:概述 在机器学习中, 感知机(perceptron) 是二分类的线性分类模型,属于监督学习算法。输入为实例的特征向量,输出为实例的类别(取+1和 1)。 感知机对应于输入空间中将实例划分为两类的分离 超平面 。感知机旨在求出该超平面,为求得超平面导入了基于误分类的损失函数,利用 梯度下降法 对损失函 阅读全文
posted @ 2019-11-13 09:52 hichens 阅读(4743) 评论(1) 推荐(0) 编辑

点击右上角即可分享
微信分享提示