支持向量机SVM

此系列笔记来源于

Coursera上吴恩达老师的机器学习课程


支持向量机

优化目标

image-20220517234008116

我们将逻辑回归中的曲线,变为紫色的线,由一条斜的直线和一条水平直线组成,并将其对应的函数变为cost0(z)cost1(z)

image-20220517234216091

在逻辑回归中,这个是我们要优化的代价函数,我们按上面所述的更改函数,同时去掉 λ 部分,并在前一项之前加常数 C作为更改权重的参数。

即:A+λBCA+B

C可以理解为1λ

由此我们便能得到SVM中我们所要优化的函数:

image-20220517234541610

这里的假设函数:

hΘ(x)={1,ΘTX00,ΘTX<0

大间隔分类器

对于SVM的假设函数,我们当然希望其cost函数为0,由图像可知,

image-20220518001633171

SVM是一种大间隔分类器,即其所绘决策边界与各类之间有着较大的间隔

例:图中黑线,而非绿线和紫线

image-20220518001804219

由于此特性,SVM具有鲁棒性(面对异常时的具有更高的稳定性、容错率)

数学原理:

因为在满足上面的我们希望的条件时,代价函数的前半部分基本等于 0,因此只用讨论第二项 12j=1nθj2

首先我们可以将公式 用线性代数的方法如下表示,p(i)x(i)在向量θ上的投影,同时我们进行简单化,令 θ0=0

image-20220519153352563

首先,向量θ因为作为系数,且方程等于0,所以他与决策边界垂直(即点积为0)

蓝色的即为向量θ,绿色的是决策边界。

我们的目的是最小化 ||θ||

那么根据图一,此时p(i)很小,因此为了满足条件,||θ||就很大,则矛盾

因此,如图二,此时决策边界是大间距的,向量θ与x轴平行 此时p(i)比起图一显然增大了许多,对应的则||θ||就可以变得更小了

posted @   Yra  阅读(42)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
点击右上角即可分享
微信分享提示