只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2019-07-21 20:29 凌晨四点的洛杉矶 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 主成分分析(Principal Component Analysis) 一个非监督的机器学习算法 主要用于数据的降维 通过降维,可以发现更易于人类理解的特征 其他应用:可视化,去噪 降维 上图为含有两个特征的样本空间,数据的维度为2,可以忽视一个不明显的特征,保留一个相对差距明显的特征进行降维 显然 阅读全文
posted @ 2019-07-21 12:14 凌晨四点的洛杉矶 阅读(338) 评论(0) 推荐(0) 编辑
摘要: 1. 梯度下降方法比较 批量梯度下降法(Batch Gradient Descent) 随机梯度下降法(Stochastic Gradient Descent) 小批量梯度下降法(mini Batch Gradient Desent) 之前我们讲解了两种梯度下降法,一种为 批量梯度下降法 ,每一次下 阅读全文
posted @ 2019-07-20 16:22 凌晨四点的洛杉矶 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法的准确性与调试 对于梯度下降法的使用,一个非常重要的步骤是求解我们定义的损失函数$J$在某个点$\theta$上的梯度值$dJ$,我们也花了很长时间来推导此公式,但是对于一些复杂的函数如非线性函数,求解梯度并不容易,在这种情况下,为了保证求解的梯度表达式正确,发现求解过程中的错误,需要进行 阅读全文
posted @ 2019-07-20 16:17 凌晨四点的洛杉矶 阅读(201) 评论(0) 推荐(0) 编辑
摘要: 之前所讲解的梯度下降法是批量梯度下降法(Batch Gradient Descent),我们将要优化的损失函数在某一点$\theta$的梯度值准确的求出来 $$\Lambda J = \begin{bmatrix} \frac{\partial J}{\partial \theta _0} \\ \ 阅读全文
posted @ 2019-07-19 19:59 凌晨四点的洛杉矶 阅读(311) 评论(0) 推荐(0) 编辑
摘要: 梯度下降的向量化 $$\Lambda J = \begin{bmatrix} \frac{\partial J}{\partial \theta _0} \\ \frac{\partial J}{\partial \theta _1} \\ \frac{\partial J}{\partial \t 阅读全文
posted @ 2019-07-17 21:22 凌晨四点的洛杉矶 阅读(506) 评论(0) 推荐(0) 编辑
摘要: 实现线性回归中的梯度下降法 构造数据集 绘制此数据集: 使用梯度下降法训练 目标:使 $$ J = \frac{1}{m}\sum_{i=1}^{m}(y^{(i)} \hat{y}^{(i)})^2 $$尽可能的小 $$\Lambda J = \begin{bmatrix} \frac{\part 阅读全文
posted @ 2019-07-16 20:49 凌晨四点的洛杉矶 阅读(197) 评论(0) 推荐(0) 编辑
摘要: 多元线性回归中使用梯度下降 在多元线性回归中,我们的目标是找到一组$\theta=(\theta_0,\theta_1,\theta_2,\theta _0,...,\theta _n)$ 使得损失函数: $$J = \sum_{i=1}^{m}(y^{(i)} \hat{y}^{(i)})^2$$ 阅读全文
posted @ 2019-07-16 20:39 凌晨四点的洛杉矶 阅读(184) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法 (Gradient Descent) 不是一个机器学习算法 是一种基于搜索的最优化方法 作用:最小化一个损失函数 (梯度上升法:最大化一个效用函数) 原理 寻找损失函数J的最小值 $$\frac{dJ}{d\theta} = \frac{J_{\theta +1} J_\theta }{ 阅读全文
posted @ 2019-07-15 22:38 凌晨四点的洛杉矶 阅读(333) 评论(0) 推荐(0) 编辑
摘要: 波士顿房产数据分析 加载波士顿房产数据: import numpy import matplotlib.pyplot as plt from sklearn import datasets boston = datasets.load_boston() X = boston.data y = bos 阅读全文
posted @ 2019-07-15 20:46 凌晨四点的洛杉矶 阅读(140) 评论(0) 推荐(0) 编辑