03 2018 档案
摘要:主成分分析Principal Component Analysis 降维除了便于计算,另一个作用就是便于可视化。 主成分分析-->降维--> 方差:描述样本整体分布的疏密,方差越大->样本越稀疏,方差越小->样本越紧密 所以问题转化成了 --> 与线性回归对比,似乎有些类似。但它们是不同的! 不仅是
阅读全文
摘要:梯度下降法 不是一个机器学习算法 是一种基于搜索的最优化方法 作用:最小化一个损失函数 梯度上升法:最大化一个效用函数 举个栗子 直线方程:导数代表斜率 曲线方程:导数代表切线斜率 导数可以代表方向,对应J增大的方向。对于蓝点,斜率为负,西塔减少时J增加,西塔增加时J减少,我们想让J减小,对应导数的
阅读全文
摘要:Python中容易混淆知识点的一些总结笔记 len, count, size, shape, ndim len() -> 返回长度,e.g. len([1,2]) = 2, len([[1,2,3],[3,4,5]]) = 2 count() -> 计算个数, e.g. 'aabcc'.count(
阅读全文
摘要:衡量线性回归法的指标:MSE, RMSE和MAE 举个栗子: 对于简单线性回归,目标是找到a,b 使得尽可能小 其实相当于是对训练数据集而言的,即 当我们找到a,b后,对于测试数据集而言 ,理所当然,其衡量标准可以是 但问题是,这个衡量标准和m相关。 (当10000个样本误差累积是100,而1000
阅读全文

浙公网安备 33010602011771号