吴恩达机器学习笔记 —— 13 支持向量机
本章讲述了SVM,相比于《统计学习方法》,从逻辑回归的角度更容易理解了。
更多内容参考 机器学习&深度学习
从逻辑回归来看,看损失值与Z的值的关系:
代入原来的是指,可以化简公式:
总结来说:如果y=1,我们希望z的值大于等于1,如果y=0,我们希望z的值小于-1,这样损失函数的值都会为0.
线性可分的决策边界:
但是这种情况对于异常点是非常敏感的,比如有一个红点,那么决策边界就会发生很大的变化。
此时希望C不要太大,即λ非常大,鲁棒性更强。
对于向量空间中的两个向量,向量的內积等于p*向量U的长度。
这样θTx就转换成了对向量θ的投影了
在逻辑回归中基于决策边界进行分类,但是特征需要手动来创造,很难去造全比较好的特征
首先假设几个样本的参照点,l1,l2,l3,然后计算每个x与这三个点的相似度,这里是用的高斯混合
这个similarity就是kernel函数。
similarity最大是1,最小是0。当两个向量一模一样的时候等于1。
通过选取的点与计算出f值,然后带入到公式,就能得出决策边界:
如何选择l呢,最简单的就是把所有的样本点都当做l。然后计算x与所有样本点的高斯核:
有很多的软件可以算SVM了,只需要选择参数C和kernel函数就行了
逻辑回归和SVM的区别:
- 1 如果特征的维度比样本的维度还高,使用逻辑回归或者不带核函数的SVM。因为没有那么多数据来拟合更高级的函数
- 2 如果n很小,m适中,那么可以使用高斯核的SVM
- 3 如果n很小,m很大,那么使用逻辑回归或者不带核函数的SVM都可以,不然使用高斯核计算会很慢
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?
2016-08-04 Kafka与Logstash的数据采集对接 —— 看图说话,从运行机制到部署
2015-08-04 《胡雪岩·灯火楼台》—— 读后总结
2015-08-04 Elasticsearch使用REST API实现全文检索
2014-08-04 linux安装oracle