支持向量机
间隔与支持向量
![在这里插入图片描述](https://img-blog.csdn.net/20181008181239202?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2xvdmVfX2xpdmUx/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
给定训练样本集D={(x1,y1),(x2,y2),...,(xm,ym)},yi∈{−1,+1},分类学习最基本得想法就是基于训练集D在样本空间中找到一个划分超平面,将不同得类别分开。这个超平面对于样本得局部扰动“容忍性最好”。
- 划分超平面可以通过以下线性方程表示:
ωTx+b=0
ω=(ω1,ω2,...,ωd)为法向量,决定了超平面得方向;b为位移项,决定了超平面与远点之间的距离
-
样本空间任意衣点x到超平面的距离可写为:
r=∣∣ω∣∣∣ωTx+b∣
-
假设超平面能将训练样本正确分类,即对于(xi,yi)∈D,若yi=+1,则有ωTxi+b>0;若yi=−1,则有ωTxi+b<0;令
{ωTxi+b≤−1,yi=−1;ωTxi+b≥+1,yi=+1;
-
距离超平面最近的这几个训练样本点使上式等号成立,他们被称为“支持向量”,两个异类支持向量到超平面的距离之和为"间隔":
γ=∣∣ω∣∣2
![在这里插入图片描述](https://img-blog.csdn.net/20181008181318625?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2xvdmVfX2xpdmUx/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
-
找到最大间隔,就是:
ω,bmaxγ=∣∣ω∣∣2s.t.yi(ωTxi+b)≥1,i=1,2,...,m.
或者
ω,bmin21∣∣ω∣∣2s.t.yi(ωTxi+b)≥1,i=1,2,...,m.
这就是支持向量机(SVM)的基本型。
对偶问题
- 对于上面的公式,使用拉格朗日乘子法可得到其“对偶问题”,对上式的每条约束添加拉格朗日乘子αi≥0,该问题的拉格朗日函数可写为:
L(ω,b,α)=21∣∣ω∣∣2+i=1∑mαi(1−yi(ωTxi+b))
- 对ω和b求偏导可得:
ω=i=1∑mαiyixi0=i=1∑mαiyi
- 带入可得对偶问题:
αmaxi=1∑mαi−21i=1∑mj=1∑mαiαjyiyjxiTxjs.t.i=1∑mαiyi=0αi≥0,i=1,2,...,m.
- 解出α,求出ω和b即可得到模型:
f(x)=ωTx+b=i=1∑mαiyixiTx+b
- 上述过程需要满足KKT条件
⎩⎪⎨⎪⎧ai≥0;yif(xi)−1≥0;α(yif(xi)−1)=0;
对任意样本(xi,yi)总有αi=0或者yif(xi)=1,若αi=0,则该样本将不会在求和中出现,也就不会对f(x)有任何影响,若α>0,则必有yif(xi)=1,所对应的样本点位于最大间隔的边界上,是一个支持向量。这就是一个支持向量机的重要性质:训练完成后,大部分的训练样本都不需要保留,最终模型仅与支持向量有关。
如何求解问题呢?这是个二次规划问题,可使用二次规划算法来求解,然而问题的规模正比于训练样本数,这会在实际任务中造成很大的开销。于是可以使用SMO(Sequential Minimal Optimization)算法.
SMO(Sequential Minimal Optimization)算法的基本思路,先固定αi以外所有参数,然后求αi上的极值,由于存在约束∑i=1mαiyi=0,若固定αi之外的其他变量,则αi可由其他变量导出,于是SMO每次选择两个变量αi和αj,并固定其他的变量,这样,在参数初始化后,SMO不断执行这个两个步骤。
- 选取一对需要更新的变量αi和αj。
- 固定αi和αj以外的参数,求解获得更新后的αi和αj。
SMO采用了一个启发式:使选取的两个变量对应样本之间的间隔变大,直观解释是,这样的两个变量有很大的区别,与两个相似的变量进行更新相比,对它们进行更新会带给目标函数值更大的变化。
- SMO算法之所以高效,恰是由于固定其他参数后,仅优化两个参数的过程能做到非常高效,具体来说,仅考虑αi和αj时,约束条件可重写为:
αiyi+αjyj=c
c=−k̸=i,j∑αkyk,用上式消去αj,得到一个关于αi的单变量二次规划问题,仅有的约束条件时αi≥0
- 确定偏移项b,对于任意的支持向量(xs,ys)都有ysf(xs)=1:
ys(i∈S∑αiyixiTxs+b)=1
b=∣S∣1s∈S∑(ys1−i∈S∑αiyixiTxs)
核函数
当遇到线性不可分的样本时,可将样本从原始空间映射到一个更高维的特征空间,使得样本在这个特征空间内线性可分,令ϕ(x)表示将x映射后的特征向量,则模型变为:
f(x)=ωTϕ(x)+b
ω,bmin21∣∣ω∣∣2s.t.yi(ωTϕ(xi)+b)≥1,i=1,2,...,m.
- 其对偶问题
αmaxi=1∑mαi−21i=1∑mj=1∑mαiαjyiyjϕ(xi)Tϕ(xj)s.t.i=1∑mαiyi=0αi≥0,i=1,2,...,m.
- 求解涉及到计算ϕ(xi)Tϕ(xj),样本映射到特征空间之后的内积,由于特征空间的维数可能很高,甚至是无穷维,因此直接计算时困难的,于是出现了核函数:
k(xi,yi)=<ϕ(xi),ϕ(xj)>=ϕ(xi)Tϕ(xj)
即xi和yi在特征空间的内积等于他们在原始样本空间中通过函数k(.,.)计算的结果
- 于是
αmaxi=1∑mαi−21i=1∑mj=1∑mαiαjyiyjk(xi,xj)s.t.i=1∑mαiyi=0αi≥0,i=1,2,...,m.
- 求解后得到
f(x)=ωTϕ(x)+b=i=1∑mαiyiϕ(xi)Tϕ(xj)+b=i=1∑mαiyik(xi,xj)+b
常用的核函数
名称 |
表达式 |
参数 |
线性核 |
k(xi,xj) |
|
多项式核 |
k(xi,xj) |
d≥1为多项式次数 |
高斯核 |
k(xi,xj) |
σ>0为高斯核的带宽 |
拉普拉斯核 |
k(xi,xj) |
σ>0 |
Sigmod核 |
k(xi,xj) |
tanh为双面正切函数,β>0,θ<0 |
此外也可以通过函数组合得到。
软间隔和正则化
现实任务中往往很难确定一个合适的核函数使得训练样本在特征空间中线性可分,即使找到了某个核函数使训练集在特征空间中线性可分,也很难断定线性可分的结果不是由于过拟合所造成的。缓解该问题的一个办法就是允许支持向量机在一些样本上出错,就是"软间隔"的概念,所有样本都必须划分正确,这成为"硬间隔"。
- 软间隔允许某些样本不满足约束条件:
yi(ωTxi+b)≥1
- 在最大化间隔的同时,不满足约束条件的样本应尽可能地少,优化目标可写:
ω,bmin21∣∣ω∣∣2+Ci=1∑mℓ0/1(yi(ωTxi+b)−1)
C是一个常数,ℓ0/1是“0/1损失函数”
ℓ0/1(z)={1,0,ifz<0;otherwise
当C无穷大时,迫使上式所有样本均满足约束,等价于硬间隔,当C取值有限时,允许一些样本不满足约束
ℓ0/1非凸、非连续,数学性质不太好,经常会用一些函数代替ℓ0/1,称为“替代损失函数”。
下图给了三种替代损失函数:
- hinge损失:ℓhinge=max(0,1−z)
- 指数损失(exponential loss):ℓexp=exp(−z)
- 对率损失(logistic loss):ℓlog=log(1+exp(−z))
![在这里插入图片描述](https://img-blog.csdn.net/20181010180907374?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2xvdmVfX2xpdmUx/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
-
采用hinge损失,则变成:
ω,bmin21∣∣ω∣∣2+Ci=1∑mmax(0,1−yi(ωTxi+b))
-
引入"松弛变量"ξi≥0,可重写为:
ω,b,ξimin21∣∣ω∣∣2+Ci=1∑mξis.t.yi(ωTxi+b)≥1−ξiξi≥0,i=1,2,...,m.
-
拉格朗日函数为:
L(ω,b,α,ξ,μ)=21∣∣ω∣∣2+Ci=1∑mξi+i=1∑mαi(1−ξi−yi(ωTxi+b))−i=1∑mμiξi
其中αi≥0,μi≥0是拉格朗日乘子。
- 对ω,b,ξi求偏导为0得:
ω=i=1∑mαiyixi,0=i=1∑mαiyi,C=αi+μi.
- 带入上式得对偶问题:
αmaxi=1∑mαi−21i=1∑mj=1∑mαiαjyiyjxiTxjs.t.i=1∑mαiyi=0C≥αi≥0,i=1,2,...,m.
- 对软间隔支持向量机,KKT条件得要求:
⎩⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎧ai≥0,μi≥0,yif(xi)−1+ξi≥0,α(yif(xi)−1+ξi)=0,ξi≥0,μiξi=0.
对任意样本(xi,yi)总有αi=0或者yif(xi)=1−ξi,若αi=0,则该样本将不会在求和中出现,也就不会对f(x)有任何影响,若α>0,则必有yif(xi)=1−ξi,即样本是支持向量,若α<C,则μi>0,进而ξi=0,该样本卡在最大间隔边界上,若α=C,则μi=0,若此时ξi≤1则该样本落在最大间隔内部,若ξi>1则样本被错误分类