有多少人工,就有多少智能

随笔分类 -  损失函数

摘要:两者都可以用来衡量两个概率分布之间的差异性。JS散度是KL散度的一种变体形式。 KL散度:也称相对熵、KL距离。对于两个概率分布P和Q之间的差异性(也可以简单理解成相似性),二者越相似,KL散度越小。 KL散度的性质:●非负性。即KL散度大于等于零。 ●非对称性。即运算时交换P和Q的位置,得到的结果 阅读全文
posted @ 2022-05-21 13:47 lvdongjie-avatarx 阅读(554) 评论(0) 推荐(0) 编辑
摘要:综述 GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力较强的算 阅读全文
posted @ 2021-01-15 08:06 lvdongjie-avatarx 阅读(212) 评论(0) 推荐(0) 编辑
摘要:1. 概述 1.1 集成学习 目前存在各种各样的机器学习算法,例如SVM、决策树、感知机等等。但是实际应用中,或者说在打比赛时,成绩较好的队伍几乎都用了集成学习(ensemble learning)的方法。集成学习的思想,简单来讲,就是“三个臭皮匠顶个诸葛亮”。集成学习通过结合多个学习器(例如同种算 阅读全文
posted @ 2021-01-14 08:14 lvdongjie-avatarx 阅读(338) 评论(0) 推荐(0) 编辑
摘要:https://scikit-learn.org/stable/modules/classes.html 阅读全文
posted @ 2021-01-13 08:04 lvdongjie-avatarx 阅读(56) 评论(0) 推荐(0) 编辑
摘要:重要内容简述: 从ID3到C4.5再到CART 在分类树问题中(注意ID3和C4.5只能解决分类问题,CART是既可以解决分类问题,也可以解决回归问题):最主要的是要进行分类的最优特征和最优切分点的选择,为了这两个量,算法不断的计算每一层的最优特征和对应下的最优切分点 随机森林 属于集成学习的范畴, 阅读全文
posted @ 2021-01-12 21:43 lvdongjie-avatarx 阅读(1191) 评论(0) 推荐(0) 编辑
摘要:一、逻辑回归基本概念 1. 什么是逻辑回归 逻辑回归就是这样的一个过程:面对一个回归或者分类问题,建立代价函数,然后通过优化方法迭代求解出最优的模型参数,然后测试验证我们这个求解的模型的好坏。 Logistic回归虽然名字里带“回归”,但是它实际上是一种分类方法,主要用于两分类问题(即输出只有两种, 阅读全文
posted @ 2021-01-10 11:28 lvdongjie-avatarx 阅读(278) 评论(0) 推荐(0) 编辑
摘要:倒数代表方向,步长代表行动,小心翼翼,如履薄冰,方可成巅峰。 阅读全文
posted @ 2021-01-09 11:09 lvdongjie-avatarx 阅读(84) 评论(0) 推荐(0) 编辑
摘要:1.过拟合 当样本特征很多,样本数相对较少时,模型容易陷入过拟合。为了缓解过拟合问题,有两种方法: 方法一:减少特征数量(人工选择重要特征来保留,会丢弃部分信息)。 方法二:正则化(减少特征参数的数量级)。 2.正则化(Regularization) 正则化是结构风险(损失函数+正则化项)最小化策略 阅读全文
posted @ 2021-01-07 20:52 lvdongjie-avatarx 阅读(429) 评论(0) 推荐(0) 编辑
摘要:经典机器学习算法,他们最本质的区别是分类思想(预测y的表达式)不同,有的是基于概率模型,有的是动态规划,表象的区别就是最后的损失函数不同。 损失函数分为经验风险损失函数和结构风险损失函数,经验风险损失函数反映的是预测结果和实际结果之间的差别,结构风险损失函数则是经验风险损失函数加上正则项(L0、L1 阅读全文
posted @ 2021-01-07 20:37 lvdongjie-avatarx 阅读(235) 评论(0) 推荐(0) 编辑
摘要:首先理解范数的概念 L1、L2这种在机器学习方面叫做正则化,统计学领域的人喊她惩罚项,数学界会喊她范数。 范数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性;②齐次性;③三角不等式。它常常被用来度量某个向量空间(或矩阵)中的每个向量的长度或大小 阅读全文
posted @ 2021-01-07 20:25 lvdongjie-avatarx 阅读(866) 评论(0) 推荐(0) 编辑