lecture 6 : SVM Intro
在构建线性分类器的时候,我们希望找一个决策边界将 positive examples 和 negative examples 较好地分开。对于一个 example, 我们希望分类的时候尽可能 correct (归到正确的一边) and confident (离决策边界尽可能远)。这就是 baby SVM 的 motivation。
在 SVM 中我们不延续之前的习惯,用 +1 和 -1 来表示正负例标签, 最后不输出概率, 而是输出
用 表示线性函数中的截距, 表示其他参数,我们希望的是, 当 (positive),, 当 , (negative examples), , 综上,我们可以定义一个衡量这种correct and confident 的标准,functional margin:
而对于真个数据集的 functional margin:
然而 functional margin 的一个问题是,当我们同时缩放 , 实际上的决策边界是没有改变的,但是 functional margin 却改变了。
另一个角度是从几何意义来考虑一次预测的好坏,一个分类正确的样本,它离决策边界越远,一般可以认为这次预测较为 correct and confident, 基于此,我们定义 geometric margin
同样地,对于整个数据集,
geometric margin 解决了 functional margin 关于同时缩放 带来的问题。
因此 SVM 求解的目标就是:
然而这并不是一个凸优化问题,我们将问题改写
由于 functional margin 的取值可通过 rescaling 来调整,并不影响问题的求解,因此可以让 , 进一步问题可以化为在约束下最小化 , 这等价于:
这是一个凸优化问题。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义