[吴恩达机器学习笔记]12支持向量机3SVM大间距分类的数学解释

12.支持向量机

觉得有用的话,欢迎一起讨论相互学习~

我的微博我的github我的B站

吴恩达老师课程原地址

参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广

12.3 大间距分类背后的数学原理- Mathematics Behind Large Margin classification

向量内积

  1. 假设有两个向量u=[u1u2],向量v=[v1v2],其中向量的内积表示为uTv.假设u1表示为u在坐标轴横轴上的投影,而u2表示为u在坐标轴纵轴上的投影,则向量u的欧几里得长度可表示为u , 且有u∥=u12+u22
  2. 对于向量的内积uTv ,可以视为 v向量在u向量上的投影p乘以u向量的长度,这两者都为实数,且当v向量的投影与u向量同方向时,p取正号,否则p取负号 即有式子 uTv=Pu∥=u1v1+u2v2

向量内积研究SVM目标函数

  • 为了更容易分析问题只保留了损失函数的后半部分而去掉了C及其乘积项。 ,原始损失函数如下图:
  • 为简化起见,忽略掉截距,设置损失函数中参数θ0为0,设置特征数n=2. ,则简化后的式子可写为:
  • 因此可以认为SVM的目的就是最小化向量θ 范数的平方或者说是长度的平方

θTx的意义

  • 给定参数向量 θ 给定一个样本x, 计算其二者的乘积,这其中的含义是什么? 对于θTx其相当于向量内积uTv

  1. 首先,对于训练样本x(i),其在x轴上的取值为x1(i),其在y轴上的取值为x2(i) ,此时 将其视为始于原点,终点位于训练样本的向量
  2. 然后将参数 θ 也视为向量且其在横轴上的投影为 θ1 ,其在纵轴上的投影为 θ2
  3. 使用之前的方法,将训练样本投影到参数向量 θ,使用 p(i)来表示第 i 个训练样本在参数向量θ上的投影。 即有 $$\theta{T}x=p_{(i)}\parallel \theta\ \parallel=\theta_1x_1{(i)}+\theta_2x_2$$
  4. x(i)代表从原点出发连接到第i个样本点的向量,是可正可负的,分别表示正样本和负样本;p(i)表示样本向量x(i)到参数向量θ上的投影,其也是可正可负的,同方向为正负方向为负对于SVM中θTx(i)1θTx(i)1的约束也可以被 p(i)x1这个约束所代替

θTx到大间距

  • 首先为方便起见设置 θ0=0 ,且只选取两个特征,即θ1θ2 ,则参数θ 可以表示成一条过原点的直线,且 决策界θ直线垂直。
  • 反证法 如下图所示(1),y轴右边的表示正样本,而y轴左边的表示负样本,蓝线表示参数θ,绿线表示决策界 ,很明显这条决策界很不好,因为其与正负样本的间距太小了。 通过将样本投影到θ上可以得到p,此时正负样本的||p||都很小,根据SVM的公式||p|| * ||θ||>=1,则其必须使||θ||很大才能满足条件,这和目标函数希望找到一个小的参数θ的目的是矛盾的,这表明这并不是一条好的决策界
  • 而图(2)中x在θ的投影p就相对的大一些,这样在满足公式||p||||θ||>=1需要的||θ||就会小一些,这和SVM的优化目标是一致的。所以 好的SVM的优化结果中,决策界的间距一定比较大
posted @   WUST许志伟  阅读(805)  评论(0编辑  收藏  举报
编辑推荐:
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
历史上的今天:
2017-09-06 Tensorflow ActiveFunction激活函数解析
点击右上角即可分享
微信分享提示