2018年11月4日

摘要: Sequence Models This is the fifth and final course of the deep learning specialization at Coursera which is moderated by deeplearning.ai Here are the 阅读全文
posted @ 2018-11-04 16:43 kexinxin 阅读(351) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2018-11-04 16:40 kexinxin 阅读(2) 评论(0) 推荐(0) 编辑
摘要: Neural Networks and Deep Learning This is the first course of the deep learning specialization at Coursera which is moderated by moderated by DeepLear 阅读全文
posted @ 2018-11-04 16:39 kexinxin 阅读(256) 评论(0) 推荐(0) 编辑
摘要: Machine Learning Note Introduction Introduction What is Machine Learning? Two definitions of Machine Learning are offered. Arthur Samuel described it 阅读全文
posted @ 2018-11-04 16:35 kexinxin 阅读(787) 评论(0) 推荐(0) 编辑
摘要: 线性二次型调节控制 现在我们讨论一个用于连续状态MDP的一个寻找最优策略的一个方法。该方法中我们直接近似V∗,而不采用离散化。该方法称之为值函数近似,在很多实际RL问题都有很好的应用。 为了发展一个值函数近似算法,我们假设对于MDP,我们有一个模型(model)或仿真器(simulator)。通俗的 阅读全文
posted @ 2018-11-04 16:31 kexinxin 阅读(1010) 评论(0) 推荐(0) 编辑
摘要: 离散与维灾难 到目前为止,我们主要讲述了在有限状态空间下的MDP,现在我们讨论一下在可能是无限状态空间下的MDP。举个例子说,一辆车,我们可以用(x, y, θ, , , )来表示状态,其中(x,y)表示位置,θ是方向,在x、y方向速度分别为, ,角速度为。因此,S = R6,是在无限的状态集合里, 阅读全文
posted @ 2018-11-04 16:31 kexinxin 阅读(326) 评论(0) 推荐(0) 编辑
摘要: 奇异值分解 作为PCA的经典应用之一,是在文本分类中,这样的方法有一个专有的名字,叫潜在语义索引(LSI , laten semantic indexing )。这部分需要注意的是,在文本分类中,不需要先进行归一化处理(PCA 要求归一化处理),因为这里考虑了词语出现的次数。鉴于课件空缺,这里从网上 阅读全文
posted @ 2018-11-04 16:30 kexinxin 阅读(524) 评论(0) 推荐(0) 编辑
摘要: 马尔可夫决策过程 现在我们开始讨论增强学习(RL,reinforcement learning)和自适应控制( adaptive control)。在监督式学习中,我们的算法总是尝试着在训练集合中使预测输出尽可能的模仿(mimic)实际标签y(或者潜在标签)。在这样的设置下,标签明确的给出了每个输入 阅读全文
posted @ 2018-11-04 16:30 kexinxin 阅读(1606) 评论(0) 推荐(0) 编辑
摘要: 主成分分析法 EM算法求解因子分析 对于EM算法而言,E-步是非常简单的,我们只需要计算Qi(z(i)) =p(z(i)|x(i); µ, Λ, Ψ)。然而在这里的条件分布为,z(i)|x(i); µ, Λ, Ψ ∼ N (µz(i)|x(i) , Σz(i)|x(i)),这里满足: 由此,我们得到 阅读全文
posted @ 2018-11-04 16:29 kexinxin 阅读(1463) 评论(0) 推荐(0) 编辑
摘要: K-means算法 在聚类问题中,给定数据集{x(1), . . . , x(m)},想要把这些数据划分成几个紧密联系的簇(clusters)。通常情况下,这里的x(i)∈ Rn,而标签y(i)是未知的。因此这是一个非监督式学习(unsupervised learning)问题。 最简单的聚类算法是 阅读全文
posted @ 2018-11-04 16:28 kexinxin 阅读(312) 评论(0) 推荐(0) 编辑
摘要: 高斯混合模型 根据EM的定义,我们重新回顾一下高斯混合中的ϕ,µ和Σ参数拟合。为了简单起见,这里我们在M-步中仅更新φ,µj,而把Σj的更新留给大家自己推导。 E-步是很容易的,根据上面的推导,我们计算: w(i)j = Qi(z(i)= j ) = P(z(i)= j |x(i); ϕ, µ, Σ 阅读全文
posted @ 2018-11-04 16:28 kexinxin 阅读(2894) 评论(0) 推荐(1) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2018-11-04 16:27 kexinxin 阅读(4) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2018-11-04 16:26 kexinxin 阅读(1) 评论(0) 推荐(0) 编辑
摘要: 特征选择 本节将接着上一讲,并结束掉经验风险最小化一章,之后讨论特征选择等相关问题。 我们在假设集合内假设有限的情况下已经证明了一些有用的理论。但是,很多假设集合,内部的参数都是实数(比如线性回归)即假设集合中包含了无数多个假设。那么,我们能否得到类似的结论呢? 首先,我们讨论一下不是很正确的一些论 阅读全文
posted @ 2018-11-04 16:26 kexinxin 阅读(337) 评论(0) 推荐(0) 编辑
摘要: 顺序最小化算法 考虑这样一个问题,如果输入X是房子的面积,我们要使用回归方法预测房子的价格。从样本点的分布中,我们看到三次方程(即使用x,x2,x3进行回归曲线拟合)能够更好的拟合数据。为了区分这两组不同的变量(前者为x,后者为(x,x2,x3)),我们称问题的特征x为原始特征(attribute) 阅读全文
posted @ 2018-11-04 16:25 kexinxin 阅读(619) 评论(0) 推荐(0) 编辑
摘要: 最优间隔分类器 对于一个给定的数据集,目前有一个很现实的需求就是要找到一个合适的决策边界,使得样本中的最小间隔(几何间隔)最大,而且这样的分类器能够使得分割的训练样本集之间的间隔(gap)最大。现在,我们假设训练集合线性可分,即可以找一条超平面把正样本和负样本分割开来。那么我们如何找到一个超平面来最 阅读全文
posted @ 2018-11-04 16:24 kexinxin 阅读(642) 评论(0) 推荐(0) 编辑
摘要: 朴素贝叶斯算法 在结束生成算法模型之前,我们将一种专门用于文本分类的算法。对于分类问题,朴素贝叶斯算法通常效果很好,而对于文本分类而言,则有更好的模型。 对于文本分类,之前提到的朴素贝叶斯算法又称之为多元伯努力事件模型(multi-variate Bernoulli event model)。模型分 阅读全文
posted @ 2018-11-04 16:23 kexinxin 阅读(568) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2018-11-04 16:22 kexinxin 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 欠拟合与过拟合概念 图3-1 欠拟合与过拟合概念演示 通常,你选择让交给学习算法处理的特征的方式对算法的工作过程有很大影响。如图3-1中左图所示,采用了y = θ0 + θ1x的假设来建立模型,我们发现较少的特征并不能很好的拟合数据,这种情况称之为欠拟合(underfitting)。而如果我们采用了 阅读全文
posted @ 2018-11-04 16:21 kexinxin 阅读(5057) 评论(0) 推荐(0) 编辑
摘要: 监督学习的应用与梯度下降 如上图所示,监督学习:对于给定的训练集合,按照某一学习算法学习之后,得到一种好的假设(Hypotheses)用于预测新的数据。 已知m组数据(x1,y1)…(xm, ym),其中xi是具有n维特征的向量,此外,我们设定xi(0) =1(即截距项)。我们做如下假设: h(x) 阅读全文
posted @ 2018-11-04 16:20 kexinxin 阅读(250) 评论(0) 推荐(0) 编辑

导航