有多少人工,就有多少智能
摘要: 很多人认为标准化理解为归一化,然而是有区别的,下面告诉你不同之处: (一)归一化 特点 对不同特征维度的伸缩变换的目的是使各个特征维度对目标函数的影响权重是一致的,即使得那些扁平分布的数据伸缩变换成类圆形。这也就改变了原始数据的一个分布。 好处 1 提高迭代求解的收敛速度 2 提高迭代求解的精度 ( 阅读全文
posted @ 2021-01-10 10:04 lvdongjie-avatarx 阅读(1251) 评论(0) 推荐(0) 编辑
摘要: 为什么要进行归一化? 机器学习模型被互联网行业广泛应用,一般做机器学习应用的时候大部分时间是花费在特征处理上,其中很关键的一步就是对特征数据进行归一化,为什么要归一化呢?维基百科给出的解释: 归一化后加快了梯度下降求最优解的速度; 如果机器学习模型使用梯度下降法求最优解时,归一化往往非常有必要,否则 阅读全文
posted @ 2021-01-10 09:56 lvdongjie-avatarx 阅读(459) 评论(0) 推荐(0) 编辑
摘要: 倒数代表方向,步长代表行动,小心翼翼,如履薄冰,方可成巅峰。 阅读全文
posted @ 2021-01-09 11:09 lvdongjie-avatarx 阅读(82) 评论(0) 推荐(0) 编辑
摘要: 梯度下降(最速下降法) 梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降法是求解无约束优化问题最简单和最古老的方法之一,虽然现在已经不具有实用性,但是许多有效算法都是以它为基础进行改进和修正而得到的。最速下降法是用负梯度方向为搜索方向的,最速下降法越接近目标值,步长越小,前进越慢。可以用于 阅读全文
posted @ 2021-01-07 21:47 lvdongjie-avatarx 阅读(118) 评论(0) 推荐(0) 编辑
摘要: 1.过拟合 当样本特征很多,样本数相对较少时,模型容易陷入过拟合。为了缓解过拟合问题,有两种方法: 方法一:减少特征数量(人工选择重要特征来保留,会丢弃部分信息)。 方法二:正则化(减少特征参数的数量级)。 2.正则化(Regularization) 正则化是结构风险(损失函数+正则化项)最小化策略 阅读全文
posted @ 2021-01-07 20:52 lvdongjie-avatarx 阅读(403) 评论(0) 推荐(0) 编辑
摘要: 经典机器学习算法,他们最本质的区别是分类思想(预测y的表达式)不同,有的是基于概率模型,有的是动态规划,表象的区别就是最后的损失函数不同。 损失函数分为经验风险损失函数和结构风险损失函数,经验风险损失函数反映的是预测结果和实际结果之间的差别,结构风险损失函数则是经验风险损失函数加上正则项(L0、L1 阅读全文
posted @ 2021-01-07 20:37 lvdongjie-avatarx 阅读(217) 评论(0) 推荐(0) 编辑
摘要: 首先理解范数的概念 L1、L2这种在机器学习方面叫做正则化,统计学领域的人喊她惩罚项,数学界会喊她范数。 范数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性;②齐次性;③三角不等式。它常常被用来度量某个向量空间(或矩阵)中的每个向量的长度或大小 阅读全文
posted @ 2021-01-07 20:25 lvdongjie-avatarx 阅读(769) 评论(0) 推荐(0) 编辑
摘要: 在使用机器学习算法过程中,针对不同的问题需要不用的模型评估标准,这里统一汇总。主要以两大类分类与回归分别阐述。 一、分类问题 1、混淆矩阵 混淆矩阵是监督学习中的一种可视化工具,主要用于比较分类结果和实例的真实信息。矩阵中的每一行代表实例的预测类别,每一列代表实例的真实类别。 真正(True Pos 阅读全文
posted @ 2021-01-07 19:35 lvdongjie-avatarx 阅读(212) 评论(0) 推荐(0) 编辑
摘要: 多项式回归案例: 结论:不是阶数越多越好,容易过拟合 使用sklearn.preprocessing.PolynomialFeatures来进行特征的构造。 它是使用多项式的方法来进行的,如果有a,b两个特征,那么它的2次多项式为(1,a,b,a^2,ab, b^2)。 PolynomialFeat 阅读全文
posted @ 2021-01-07 19:33 lvdongjie-avatarx 阅读(1430) 评论(0) 推荐(0) 编辑
摘要: conda create -n env-name python=3.8 阅读全文
posted @ 2020-10-18 13:56 lvdongjie-avatarx 阅读(698) 评论(0) 推荐(0) 编辑