摘要: 最小二乘法是简单线性回归法,下面我将学习到的最小二乘法的推导过程列出来 阅读全文
posted @ 2019-09-18 19:32 yg_staring 阅读(198) 评论(0) 推荐(0) 编辑
摘要: 线性回归 若只考虑两个特征变量我们可以建立线性方程: 对于多个特征变量我们可以建立: 是预测值,它与真实值存在一定的误差: 为预测值,y(i)为真实值。 误差ε(i)是独立同分布的,服从均值为0,方差为某定值σ2的高斯分布 为什么每个样本误差ε是独立同分布的? 答:误差可能是正的也可能是负的,它们之 阅读全文
posted @ 2019-09-18 16:10 yg_staring 阅读(252) 评论(0) 推荐(0) 编辑
摘要: 1. 相关背景 在许多领域的研究与应用中,通常需要对含有多个变量的数据进行观测,收集大量数据后进行分析寻找规律。多变量大数据集无疑会为研究和应用提供丰富的信息,但是也在一定程度上增加了数据采集的工作量。更重要的是在很多情形下,许多变量之间可能存在相关性,从而增加了问题分析的复杂性。如果分别对每个指标 阅读全文
posted @ 2019-09-18 15:32 yg_staring 阅读(502) 评论(0) 推荐(0) 编辑
摘要: 机器学习中SVD总结 矩阵分解的方法 基本矩阵分解(Basic Matrix Factorization),basic MF分解。 正则化矩阵分解(Regularized Matrix Factorization)。 概率矩阵分解(Probabilistic Matrix Factorization 阅读全文
posted @ 2019-09-18 15:21 yg_staring 阅读(310) 评论(0) 推荐(0) 编辑