有多少人工,就有多少智能
摘要: 梯度下降(最速下降法) 梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降法是求解无约束优化问题最简单和最古老的方法之一,虽然现在已经不具有实用性,但是许多有效算法都是以它为基础进行改进和修正而得到的。最速下降法是用负梯度方向为搜索方向的,最速下降法越接近目标值,步长越小,前进越慢。可以用于 阅读全文
posted @ 2021-01-07 21:47 lvdongjie-avatarx 阅读(117) 评论(0) 推荐(0) 编辑
摘要: 1.过拟合 当样本特征很多,样本数相对较少时,模型容易陷入过拟合。为了缓解过拟合问题,有两种方法: 方法一:减少特征数量(人工选择重要特征来保留,会丢弃部分信息)。 方法二:正则化(减少特征参数的数量级)。 2.正则化(Regularization) 正则化是结构风险(损失函数+正则化项)最小化策略 阅读全文
posted @ 2021-01-07 20:52 lvdongjie-avatarx 阅读(402) 评论(0) 推荐(0) 编辑
摘要: 经典机器学习算法,他们最本质的区别是分类思想(预测y的表达式)不同,有的是基于概率模型,有的是动态规划,表象的区别就是最后的损失函数不同。 损失函数分为经验风险损失函数和结构风险损失函数,经验风险损失函数反映的是预测结果和实际结果之间的差别,结构风险损失函数则是经验风险损失函数加上正则项(L0、L1 阅读全文
posted @ 2021-01-07 20:37 lvdongjie-avatarx 阅读(216) 评论(0) 推荐(0) 编辑
摘要: 首先理解范数的概念 L1、L2这种在机器学习方面叫做正则化,统计学领域的人喊她惩罚项,数学界会喊她范数。 范数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性;②齐次性;③三角不等式。它常常被用来度量某个向量空间(或矩阵)中的每个向量的长度或大小 阅读全文
posted @ 2021-01-07 20:25 lvdongjie-avatarx 阅读(748) 评论(0) 推荐(0) 编辑
摘要: 在使用机器学习算法过程中,针对不同的问题需要不用的模型评估标准,这里统一汇总。主要以两大类分类与回归分别阐述。 一、分类问题 1、混淆矩阵 混淆矩阵是监督学习中的一种可视化工具,主要用于比较分类结果和实例的真实信息。矩阵中的每一行代表实例的预测类别,每一列代表实例的真实类别。 真正(True Pos 阅读全文
posted @ 2021-01-07 19:35 lvdongjie-avatarx 阅读(212) 评论(0) 推荐(0) 编辑
摘要: 多项式回归案例: 结论:不是阶数越多越好,容易过拟合 使用sklearn.preprocessing.PolynomialFeatures来进行特征的构造。 它是使用多项式的方法来进行的,如果有a,b两个特征,那么它的2次多项式为(1,a,b,a^2,ab, b^2)。 PolynomialFeat 阅读全文
posted @ 2021-01-07 19:33 lvdongjie-avatarx 阅读(1404) 评论(0) 推荐(0) 编辑