Fork me on GitHub

文章分类 -  机器学习

摘要:转自:https://zhuanlan.zhihu.com/p/40991784 1. 摘要EM(Expectation Maximum)算法也称期望最大化算法,曾入选“数据挖掘十大算法”中,可见EM算法在机器学习、数据挖掘中的影响力。EM算法是最常见的隐变量估计方法,在机器学习中有极为广泛的用途, 阅读全文
posted @ 2019-12-01 20:01 Veagau 阅读(2318) 评论(0) 推荐(0) 编辑
摘要:转自: https://blog.csdn.net/u012192662/article/details/41644197 核心: Fisher vector本质上是用似然函数的梯度vector来表达一幅图像 基础知识的预备: 1. 高斯分布 生活和自然中,很多的事和物的分布都可以近似的看做是高斯分 阅读全文
posted @ 2019-11-19 22:02 Veagau 阅读(748) 评论(0) 推荐(0) 编辑
摘要:转自: "《漫谈 Clustering (4): Spectral Clustering》" 本文是“漫谈 Clustering 系列”中的第 6 篇,参见本系列的其他文章。 如果说 K means 和 GMM 这些聚类的方法是古代流行的算法的话,那么这次要讲的 Spectral Clusterin 阅读全文
posted @ 2019-11-19 21:25 Veagau 阅读(766) 评论(0) 推荐(0) 编辑
摘要:转自: "l1正则与l2正则的特点是什么,各有什么优势? Andy Yang的回答 知乎" 理解L1,L2 范数L1,L2 范数即 L1 norm 和 L2 norm,自然,有L1、L2便也有L0、L3等等。因为在机器学习领域,L1 和 L2 范数应用比较多,比如作为正则项在回归中的使用 Lasso 阅读全文
posted @ 2019-11-19 16:06 Veagau 阅读(458) 评论(0) 推荐(0) 编辑
摘要:转自:https://blog.csdn.net/hustqb/article/details/78347713 Hinge Loss 在机器学习中,hinge loss作为一个损失函数(loss function),通常被用于最大间隔算法(maximum margin),而最大间隔算法又是SVM( 阅读全文
posted @ 2019-11-17 16:25 Veagau 阅读(40629) 评论(2) 推荐(1) 编辑
摘要:转载自:https://blog.csdn.net/qq_39521554/article/details/80605178 机器学习算法中,不论是感知机还是支持向量机,在面对非线性问题时,往往都会用到一个名为“核函数”的技巧。那么到底什么是核函数呢?是否真的如听起来这样难以理解呢?核函数:是映射关 阅读全文
posted @ 2019-11-17 16:21 Veagau 阅读(4316) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示