kernel函数解释

整个story可以这么说:那些搞svm,ridge regression的人,发现自己的算法对数据集的效果不好,他们认为这可能是因为数据集线性不可分。另外他们发现他们搞出的式子里,出现的都是两个数据点的内积。他们想,我们要是把原始数据集映射到高维可能就线性可分啦,但是这可是内积啊,而且怎么找映射函数呢?这时候Mercer Theorem出现了,简直就是黑暗中的一缕阳光啊!好的,那就构造一个kernel function吧,根据Mercer Theorem,那些原始维度的内积转换到高维内积只需要把数据点带进核函数就ok啦。这不就简单了?结果在数据集上居然很好!!!然后这种方法就有很多时髦名称了。大家都follow么。

机器学习有很多关于核函数的说法,核函数的定义和作用是什么? - 文鸿郴的回答 - 知乎
https://www.zhihu.com/question/24627666/answer/28460490

posted @ 2022-04-29 07:35  TR_Goldfish  阅读(92)  评论(0编辑  收藏  举报