会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
帅龙
首页
管理
上一页
1
2
3
4
5
6
下一页
2019年7月21日
PCA-2.梯度上升法求解PCA
只有注册用户登录后才能阅读该文。
阅读全文
posted @ 2019-07-21 20:29 凌晨四点的洛杉矶
阅读(10)
评论(0)
推荐(0)
编辑
PCA-1.降维原理
摘要: 主成分分析(Principal Component Analysis) 一个非监督的机器学习算法 主要用于数据的降维 通过降维,可以发现更易于人类理解的特征 其他应用:可视化,去噪 降维 上图为含有两个特征的样本空间,数据的维度为2,可以忽视一个不明显的特征,保留一个相对差距明显的特征进行降维 显然
阅读全文
posted @ 2019-07-21 12:14 凌晨四点的洛杉矶
阅读(338)
评论(0)
推荐(0)
编辑
2019年7月20日
梯度下降法-7.总结
摘要: 1. 梯度下降方法比较 批量梯度下降法(Batch Gradient Descent) 随机梯度下降法(Stochastic Gradient Descent) 小批量梯度下降法(mini Batch Gradient Desent) 之前我们讲解了两种梯度下降法,一种为 批量梯度下降法 ,每一次下
阅读全文
posted @ 2019-07-20 16:22 凌晨四点的洛杉矶
阅读(188)
评论(0)
推荐(0)
编辑
梯度下降法-6.调试梯度下降法
摘要: 梯度下降法的准确性与调试 对于梯度下降法的使用,一个非常重要的步骤是求解我们定义的损失函数$J$在某个点$\theta$上的梯度值$dJ$,我们也花了很长时间来推导此公式,但是对于一些复杂的函数如非线性函数,求解梯度并不容易,在这种情况下,为了保证求解的梯度表达式正确,发现求解过程中的错误,需要进行
阅读全文
posted @ 2019-07-20 16:17 凌晨四点的洛杉矶
阅读(201)
评论(0)
推荐(0)
编辑
2019年7月19日
梯度下降法-5.随机梯度下降法
摘要: 之前所讲解的梯度下降法是批量梯度下降法(Batch Gradient Descent),我们将要优化的损失函数在某一点$\theta$的梯度值准确的求出来 $$\Lambda J = \begin{bmatrix} \frac{\partial J}{\partial \theta _0} \\ \
阅读全文
posted @ 2019-07-19 19:59 凌晨四点的洛杉矶
阅读(311)
评论(0)
推荐(0)
编辑
2019年7月17日
梯度下降法-4.向量化和数据标准化
摘要: 梯度下降的向量化 $$\Lambda J = \begin{bmatrix} \frac{\partial J}{\partial \theta _0} \\ \frac{\partial J}{\partial \theta _1} \\ \frac{\partial J}{\partial \t
阅读全文
posted @ 2019-07-17 21:22 凌晨四点的洛杉矶
阅读(506)
评论(0)
推荐(0)
编辑
2019年7月16日
梯度下降法-3.实现线性回归中的梯度下降法
摘要: 实现线性回归中的梯度下降法 构造数据集 绘制此数据集: 使用梯度下降法训练 目标:使 $$ J = \frac{1}{m}\sum_{i=1}^{m}(y^{(i)} \hat{y}^{(i)})^2 $$尽可能的小 $$\Lambda J = \begin{bmatrix} \frac{\part
阅读全文
posted @ 2019-07-16 20:49 凌晨四点的洛杉矶
阅读(197)
评论(0)
推荐(0)
编辑
梯度下降法-2.线性回归中的梯度下降法
摘要: 多元线性回归中使用梯度下降 在多元线性回归中,我们的目标是找到一组$\theta=(\theta_0,\theta_1,\theta_2,\theta _0,...,\theta _n)$ 使得损失函数: $$J = \sum_{i=1}^{m}(y^{(i)} \hat{y}^{(i)})^2$$
阅读全文
posted @ 2019-07-16 20:39 凌晨四点的洛杉矶
阅读(184)
评论(0)
推荐(0)
编辑
2019年7月15日
梯度下降法-1.原理及简单实现
摘要: 梯度下降法 (Gradient Descent) 不是一个机器学习算法 是一种基于搜索的最优化方法 作用:最小化一个损失函数 (梯度上升法:最大化一个效用函数) 原理 寻找损失函数J的最小值 $$\frac{dJ}{d\theta} = \frac{J_{\theta +1} J_\theta }{
阅读全文
posted @ 2019-07-15 22:38 凌晨四点的洛杉矶
阅读(333)
评论(0)
推荐(0)
编辑
线性回归算法-5.更多思考
摘要: 波士顿房产数据分析 加载波士顿房产数据: import numpy import matplotlib.pyplot as plt from sklearn import datasets boston = datasets.load_boston() X = boston.data y = bos
阅读全文
posted @ 2019-07-15 20:46 凌晨四点的洛杉矶
阅读(140)
评论(0)
推荐(0)
编辑
上一页
1
2
3
4
5
6
下一页
公告