摘要: 集成学习通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化性能。这对“弱学习器”尤为明显,因此集成学习的很多理论研究都是针对弱学习器进行的,而基学习器有时也被直接称为弱学习器。虽然从理论上来说使用弱学习器集成足以获得好的性能,但在实践中出于种种考虑,例如希望使用较少的个体学习器,或是重用关 阅读全文
posted @ 2019-09-26 19:25 yg_staring 阅读(503) 评论(0) 推荐(0) 编辑
摘要: 决策树 1.决策树是一种树型结构,其中每个内部结点表示在一个属性上的测试,每个分支代表一个测试输出,每个叶子结点代表一种类别。 2.决策树学习是以实例为基础的归纳学习 3.决策树学习采用的是自顶向下的递归方法,其基本思想是以信息熵为度量构造一棵熵值下降最快的树,到叶子节点处的熵值为零,此时每个叶子节 阅读全文
posted @ 2019-09-26 11:38 yg_staring 阅读(293) 评论(0) 推荐(0) 编辑
摘要: 本次笔记绝大部分转自https://www.cnblogs.com/Luv-GEM/p/10674719.html softmax回归 Logistic回归是用来解决二类分类问题的,如果要解决的问题是多分类问题呢?那就要用到softmax回归了,它是Logistic回归在多分类问题上的推广。此处神经 阅读全文
posted @ 2019-09-20 20:29 yg_staring 阅读(1298) 评论(0) 推荐(0) 编辑
摘要: 在说逻辑回归之前,可以先说一说逻辑回归与线性回归的区别: 逻辑回归与线性回归在学习规则形式上是完全一致的,它们的区别在于hθ(x(i))为什么样的函数 当hθ(x(i))=θTx(i)时,表示的是线性回归,它的任务是做回归用的。 当时,表示的是逻辑回归,假定模型服从二项分布,使用最大似然函数推导的, 阅读全文
posted @ 2019-09-20 19:29 yg_staring 阅读(556) 评论(0) 推荐(0) 编辑
摘要: 对于m个样本 某模型的估计值为 计算样本的总平方和TSS(Total Sum of Squares): 计算残差平方和RSS(Residual Sum of Squares): RSS即误差平方和SSE(Sum of Squares for Error) 定义 R2=1-RSS/TSS R2越大,拟 阅读全文
posted @ 2019-09-20 17:29 yg_staring 阅读(2340) 评论(0) 推荐(0) 编辑
摘要: 最小二乘法是简单线性回归法,下面我将学习到的最小二乘法的推导过程列出来 阅读全文
posted @ 2019-09-18 19:32 yg_staring 阅读(198) 评论(0) 推荐(0) 编辑
摘要: 线性回归 若只考虑两个特征变量我们可以建立线性方程: 对于多个特征变量我们可以建立: 是预测值,它与真实值存在一定的误差: 为预测值,y(i)为真实值。 误差ε(i)是独立同分布的,服从均值为0,方差为某定值σ2的高斯分布 为什么每个样本误差ε是独立同分布的? 答:误差可能是正的也可能是负的,它们之 阅读全文
posted @ 2019-09-18 16:10 yg_staring 阅读(252) 评论(0) 推荐(0) 编辑
摘要: 1. 相关背景 在许多领域的研究与应用中,通常需要对含有多个变量的数据进行观测,收集大量数据后进行分析寻找规律。多变量大数据集无疑会为研究和应用提供丰富的信息,但是也在一定程度上增加了数据采集的工作量。更重要的是在很多情形下,许多变量之间可能存在相关性,从而增加了问题分析的复杂性。如果分别对每个指标 阅读全文
posted @ 2019-09-18 15:32 yg_staring 阅读(502) 评论(0) 推荐(0) 编辑
摘要: 机器学习中SVD总结 矩阵分解的方法 基本矩阵分解(Basic Matrix Factorization),basic MF分解。 正则化矩阵分解(Regularized Matrix Factorization)。 概率矩阵分解(Probabilistic Matrix Factorization 阅读全文
posted @ 2019-09-18 15:21 yg_staring 阅读(310) 评论(0) 推荐(0) 编辑
摘要: 线性表,即线性存储结构,将具有“一对一”关系的数据“线性”地存储到物理空间中,这种存储结构就称为线性存储结构,简称线性表。 注意:使用线性表存储的数据,要求数据类型必须一致,线性表存储的数据,要么全不都是整形,要么全部都是字符串。一半是整形,另一半是字符串的一组数据无法使用线性表存储。 线性表存储数 阅读全文
posted @ 2019-09-07 20:51 yg_staring 阅读(2363) 评论(0) 推荐(1) 编辑