SVM(支持向量机)之Hinge Loss解释
- Hinge Loss 解释
SVM 求解使通过建立二次规划原始问题,引入拉格朗日乘子法,然后转换成对偶的形式去求解,这是一种理论非常充实的解法。这里换一种角度来思考,在机器学习领域,一般的做法是经验风险最小化 ERM ,即构建假设函数为输入输出间的映射,然后采用损失函数来衡量模型的优劣。求得使损失最小化的模型即为最优的假设函数,采用不同的损失函数也会得到不同的机器学习算法,比如这里的主题 SVM 采用的是 Hinge Loss ,Logistic Regression 采用的则是负 损失,
从二项分布的角度来考虑 Logistic 回归:
这里另 , 为 sigmod 映射,则:
的图形如下图的红色曲线,可见 越接近 1 , 的取值越小,即损失越小。反之另:
此时得到的图像应该为关于 对称的红色的线(没画出),此时 越接近 -1, 的取值越小,即损失越小。
注: 图中绿色的线为 square loss ,蓝色的线为 hinge loss, 红的的线为负 log 损失。
- 二分类问题
给定数据集 , 要用这些数据做一个线性分类器,即求得最优分离超平面 来将样本分为正负两类,给定数据集后只需求得最优的参数 即可,为了解决这个问题,首先做出如下线性映射函数
根据经验风险最小化原则, 这里引入二分类的 Hinge Loss :
上图中对应的 ,所以SVM可以通过直接最小化如下损失函数二求得最优的分离超平面:
- 多分类问题
对于多分类问题,现在要用这些数据做一个 k 类的线性分类器 ,现在需要优化的参数变为 , 此时的 ,为一个 的矩阵, 为一个向量,现在的映射关系如下 :,此时有 , 中的每个分量代表分类器在该类别的得分,样本 的标签 , 这里若 属于类别 ,则 中除了第 个分量外其余元素全为 0 ,比如 5 分类问题, 属于第 3 类,则有 , 用 表示得分向量 中的第 个分量 , 表示对应 的分量,则单个样本多分类的Hinge Loss可表示为:
,
所以 分类线性分类SVM 的 Hinge Loss表示为:
出处:http://www.guoyaohua.com
微信:guoyaohua167
邮箱:guo.yaohua@foxmail.com
本文版权归作者和博客园所有,欢迎转载,转载请标明出处。
【如果你觉得本文还不错,对你的学习带来了些许帮助,请帮忙点击右下角的推荐】

【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· 展开说说关于C#中ORM框架的用法!
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?