03 2018 档案

摘要:主成分分析Principal Component Analysis 降维除了便于计算,另一个作用就是便于可视化。 主成分分析-->降维--> 方差:描述样本整体分布的疏密,方差越大->样本越稀疏,方差越小->样本越紧密 所以问题转化成了 --> 与线性回归对比,似乎有些类似。但它们是不同的! 不仅是 阅读全文
posted @ 2018-03-08 21:13 Zz_moi 阅读(501) 评论(0) 推荐(1)
摘要:梯度下降法 不是一个机器学习算法 是一种基于搜索的最优化方法 作用:最小化一个损失函数 梯度上升法:最大化一个效用函数 举个栗子 直线方程:导数代表斜率 曲线方程:导数代表切线斜率 导数可以代表方向,对应J增大的方向。对于蓝点,斜率为负,西塔减少时J增加,西塔增加时J减少,我们想让J减小,对应导数的 阅读全文
posted @ 2018-03-04 16:55 Zz_moi 阅读(560) 评论(0) 推荐(0)
摘要:待续。。 阅读全文
posted @ 2018-03-03 15:56 Zz_moi 阅读(126) 评论(0) 推荐(0)
摘要:Python中容易混淆知识点的一些总结笔记 len, count, size, shape, ndim len() -> 返回长度,e.g. len([1,2]) = 2, len([[1,2,3],[3,4,5]]) = 2 count() -> 计算个数, e.g. 'aabcc'.count( 阅读全文
posted @ 2018-03-01 22:02 Zz_moi 阅读(193) 评论(0) 推荐(0)
摘要:衡量线性回归法的指标:MSE, RMSE和MAE 举个栗子: 对于简单线性回归,目标是找到a,b 使得尽可能小 其实相当于是对训练数据集而言的,即 当我们找到a,b后,对于测试数据集而言 ,理所当然,其衡量标准可以是 但问题是,这个衡量标准和m相关。 (当10000个样本误差累积是100,而1000 阅读全文
posted @ 2018-03-01 21:35 Zz_moi 阅读(15166) 评论(1) 推荐(2)