摘要: ##求数据前n个主成分并进行高维数据映射为低维数据的操作 ###求数据前n个主成分 先前的将多个样本映射到一个轴上以求使其降维的操作,其中的样本点本身是二维的样本点,将其映射到新的轴上以后,还不是一维的数据,对于n维数据来说,他应该有n个轴,第一个轴是方差最大的,第二个轴次之,以此类推,可以将主成分 阅读全文
posted @ 2021-01-20 14:07 DbWong_0918 阅读(338) 评论(0) 推荐(0) 编辑
摘要: ##使用sklearn中的fetch_mldata的错误情况以及可能可行的解决方法 在notebook使用的时候出现了报错 from sklearn。datasets import fetch_mldata 报错信息为 ImportError: cannot import name 'fetch_m 阅读全文
posted @ 2021-01-20 00:26 DbWong_0918 阅读(5740) 评论(0) 推荐(0) 编辑
摘要: ##求数据的第一主成分 (在notebook中) 将包加载好,再创建出一个虚拟的测试用例,生成的X有两个特征,特征一为0到100之间随机分布,共一百个样本,对于特征二,其和特征一有一个基本的线性关系(为什么要有一个基本的线性关系?是因为含有一个基本的线性关系,这样对数据降维的效果会更加的明显) im 阅读全文
posted @ 2021-01-20 00:10 DbWong_0918 阅读(1514) 评论(0) 推荐(0) 编辑
摘要: ##主成分分析法PCA的原理及计算 ###主成分分析法 主成分分析法(Principal Component Analysis),简称PCA,其是一种统计方法,是数据降维,简化数据集的一种常用的方法 它本身是一个非监督学习的算法,作用主要是用于数据的降维,降维的意义是挺重要的,除了显而易见的通过降维 阅读全文
posted @ 2021-01-19 23:54 DbWong_0918 阅读(1454) 评论(1) 推荐(0) 编辑
摘要: ##如何确定梯度计算的准确性以及调试梯度下降法 ###如何调试梯度 关于梯度的调试的方法的思想 对于一根曲线,我们求其在某一个点的相应的梯度值,我们就要求这个导数值,那么这个导数对应的就是这个点上的相切的直线的斜率,那么我们可以试着模拟这个直线的斜率,方式是在这个点的正方向的附近取一个点,在负方向上 阅读全文
posted @ 2021-01-17 16:23 DbWong_0918 阅读(844) 评论(0) 推荐(0) 编辑
摘要: ##随机梯度下降法 上文书我们说到批量梯度下降法 批量梯度下降法是有个问题的,如果样本量非常的大的话,计算梯度本身就是非常的耗时的,那么应该如何改进呢,基于能不能每次只对其中的一个值进行计算的思想,我们可以变幻出新的结构 对于i来说,我们每次都随机的只取一个固定的i,相应的,括号外也就不需要除以m了 阅读全文
posted @ 2021-01-17 16:18 DbWong_0918 阅读(698) 评论(0) 推荐(0) 编辑
摘要: ##线性回归中的梯度下降法(实现以及向量化并进行数据归一化) ###多元线性回归中的梯度下降法 我们试一下应用在多元线性回归中,对于线性回归的问题,前面的基本都是使每一次模型预测出的结果和数据所对应的真值的差的平方的和为损失函数,对于参数来说,有n+1个元素,这种情况下,我们就需要变换式子 这实际上 阅读全文
posted @ 2021-01-17 16:07 DbWong_0918 阅读(1205) 评论(0) 推荐(1) 编辑
摘要: ##AttributeError: module 'numpy' has no attribute 'num' 写在前面 总的来说,先看看自己用的计算方式是不是写对了先,多个一起使用的话记得都看看 通过想上查找代码发现是方法名打错了 其实从错误提示中就能看出来的,这里显示到了dJ还没有问题,但是再更 阅读全文
posted @ 2021-01-17 15:50 DbWong_0918 阅读(2972) 评论(0) 推荐(0) 编辑
摘要: ##模拟实现梯度下降法 (在notebook中) 既然我们要模拟实现梯度下降法,那么首先,我们就得确认一下我们的损失函数取什么 我们先设置一下这个曲线,将其设置成-1到6的范围,进行141的均分 plot_x = np.linspace(-1,6,141) plot_x 其中内容为 我们取这样一个曲 阅读全文
posted @ 2021-01-17 01:27 DbWong_0918 阅读(149) 评论(0) 推荐(1) 编辑
摘要: ##梯度下降法 梯度下降法和先前学习的算法有着明显的不同 他本身不是一个机器学习的算法,它既不是监督学习也不是非监督学习,其是一种基于搜索的最优化的方法,作用是最小化一个损失函数,相应的,我们想要最大化一个效用函数的话,就要用梯度上升法,最小化方面是很常用梯度下降法的 从二维平面上看,可以发现其本质 阅读全文
posted @ 2021-01-16 09:41 DbWong_0918 阅读(290) 评论(0) 推荐(0) 编辑