会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
轩窗尘清
博客园
首页
新随笔
联系
管理
订阅
06 2019 档案
Lesson 2 Thirteen equals one
摘要:vicar 牧师 grocer 杂货铺店主 with a start 由于受到惊吓 Whtaever are you dong up here?你究竟在这上面干什么?whatever用于疑问句中,用以加强what语气。我们平时经常说的是What are you doing? You certainl
阅读全文
posted @
2019-06-21 10:18
轩窗尘清
阅读(374)
评论(0)
推荐(0)
Lesson 1 A puma at large
摘要:spot (v) 看出,发现 oblige (v) 使...感到必须;obliged (adj)必须的, feel obliged to do sth. 感到不得不做某事 ==have to。eg:Experts felt obliged to investigate. somehow (adv)
阅读全文
posted @
2019-06-21 10:04
轩窗尘清
阅读(481)
评论(0)
推荐(0)
机器学习实战-K-近邻算法(kNN)
摘要:k-近邻算法(kNN) 它的工作原理是:存在一个样本数据集合,也称做训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每个数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说
阅读全文
posted @
2019-06-20 22:54
轩窗尘清
阅读(396)
评论(0)
推荐(0)
pycharm社区版安装及遇到的问题
摘要:1. 在官网上下载pycharm社区版安装包. 2. 按照该教程进行安装: https://jingyan.baidu.com/article/f00622286e92f4fbd2f0c855.html 3. 当出现interpreter field is empty 应该是因为没有python依赖
阅读全文
posted @
2019-06-20 10:17
轩窗尘清
阅读(1688)
评论(0)
推荐(0)
强化学习-K摇臂赌博机
摘要:在强化学习任务中,学习的目的就是找到能够长期累积奖赏最大化的策略。这里的策略实际上就相当于监督学习中的分类器或回归器,模型的形式并无差别。但不同的是,在强化学习中并没有监督学习中的有标记样本,换言之,没有人直接告诉机器在什么动作,只有等到最终结果揭晓,才能通过“反思”之前的动作是否正确来进行学习。因
阅读全文
posted @
2019-06-19 16:49
轩窗尘清
阅读(852)
评论(0)
推荐(0)
概率图模型
摘要:概率图模型是一类用图来表达变量相关关系的概率模型。它以图为表示工具,最常见的是用一个结点表示一个或一组随机变量,结点之间的边表示变量间的概率相关关系,即“变量关系图”。根据边的性质不同,概率图模型可大致分为两类: 1. 使用有向无环图表示变量间的依赖关系,称为有向图模型或贝叶斯网; 2. 使用无向图
阅读全文
posted @
2019-06-19 16:13
轩窗尘清
阅读(1064)
评论(0)
推荐(0)
半监督学习
摘要:让学习器不依赖外界交互、自动地利用未标记样本来提升学习性能,就是半监督学习。 要利用未标记样本,必然要做一些将未标记样本所揭示的数据分布信息与类别标记相联系的假设。最常见的是“聚类假设”,即假设数据存在簇结构,同一个簇的样本属于同一类别。半监督学习中另一种常见的假设是“流形假设”,即假设数据分布在一
阅读全文
posted @
2019-06-19 12:01
轩窗尘清
阅读(624)
评论(0)
推荐(0)
卷积神经网络
摘要:卷积神经网络(Convolutional Neural Network, CNN),是深度学习技术中极具代表性的网络结构,它的应用非常广泛,尤其是在计算机视觉领域取得了很大的成功。CNN相较于传统的图像处理算法的优点就在于,避免了对图像复杂的前期预处理过程(即大量的人工提取特征工作),也就是说CNN
阅读全文
posted @
2019-06-18 17:27
轩窗尘清
阅读(337)
评论(0)
推荐(0)
递归神经网络
摘要:递归神经网络(RNN)是两类人工神经网络的总称,分别是时间递归神经网络和结构递归神经网络。(ps:也有很多文献称之为递归神经网络和循环神经网络)。 RNN在基础研究领域和工程领域都取得了很多突破性进展。在自然语言处理领域,采用神经网络模型来改进传统的N元统计模型。还应用于机器翻译领域、语音识别和个性
阅读全文
posted @
2019-06-18 16:22
轩窗尘清
阅读(4834)
评论(0)
推荐(0)
玻尔兹曼机及其相关模型
摘要:深度学习研究的对象是具有深层表示的学习模型,它实际上是由两种不同的类型构成: 1.以神经网络为核心的深度神经网络; 2.以概率图模型为核心的深度图模型。 下面介绍深度概率图模型。 常用的深度图模型 玻尔兹曼机(Boltzmann Machine,BM)。 它是马尔科夫无向图网络中的一种,以顶点表示随
阅读全文
posted @
2019-06-18 11:59
轩窗尘清
阅读(1718)
评论(0)
推荐(0)
自编码器及其相关模型
摘要:自编码器是一种无监督的神经网络模型,其核心的作用是能够学习到输入数据的深层表示。 当前自编码器的主要应用有两个方面:一是特征提取;另一个是非线性降维,用于高维数据的可视化,与流行学习关系密切。 自编码器(AutoEncoder,AE):最原始的AE网络是一个三层的前馈神经网络结构,由输入层、隐藏层和
阅读全文
posted @
2019-06-18 11:16
轩窗尘清
阅读(2896)
评论(1)
推荐(2)
特征选择
摘要:将属性称之为特征,对当前学习任务有用的属性称为“相关特征”,没什么用的属性称为“无关特征”。从给定得到特征集合中选择出相关特征子集的过程,称为 特征选择。 为什么进行特征选择呢? 1. 在现实任务中经常会遇到维数灾难问题,就是因为属性过多造成的,若能从中选择出重要的特征,使得后续学习过程仅需在一部分
阅读全文
posted @
2019-06-17 16:50
轩窗尘清
阅读(441)
评论(0)
推荐(0)
降维-主成分分析
摘要:在高维情形下出现的数据样本稀疏、距离计算困难等问题,是所有机器学习方法共同面临得到严重障碍,被称为“维数灾难”。缓解维数灾难的一个重要途径是降维。也称“维数约简”,即通过某种数学变换将原始高维属性空间转变为一个低维子空间,在这个子空间中样本密度大幅度提高,距离计算也变得更为容易。 对降维效果的评估,
阅读全文
posted @
2019-06-16 11:20
轩窗尘清
阅读(1106)
评论(0)
推荐(0)
最小值的最优化问题
摘要:无约束极小值的最优化条件: 关于多元函数极小值点的必要条件: 满足的点称之为f(x)的驻点或稳定点,但是反过来,满足梯度条件的点不一定是f(x)的局部极小值。因此,定理转化为求解下面的方程组问题: 对于上面的线性方程组,利用解析法(如高斯消元法、矩阵三角分解法等)可以较方便求解,但是遗憾的是,f(x
阅读全文
posted @
2019-06-15 11:21
轩窗尘清
阅读(1388)
评论(0)
推荐(0)
聚类
摘要:在“无监督学习”(ps:有x无y类型的数据)中,训练样本的标记信息是未知的,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步得到数据分析提供基础。这类学习任务中研究最多、应用最广的是“聚类”。聚类试图将数据集中的样本划分若干个通常是不相交的子集,每个子集称之为一个簇。通过这样的划
阅读全文
posted @
2019-06-14 13:43
轩窗尘清
阅读(448)
评论(0)
推荐(0)
贝叶斯分类器
摘要:贝叶斯决策论:是概率框架下实施决策的基本方法。对分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。 1. 贝叶斯优化目标: 样本x上的“条件风险”为: 我们的任务是寻找一个判定准则h:X——Y以最小化总体风险: 显然,对每个样本x,若h能
阅读全文
posted @
2019-06-13 16:19
轩窗尘清
阅读(865)
评论(0)
推荐(0)
支持向量机
摘要:支持向量机(Support Vector machine, SVM),本章节说明如何构建SVM的最优化模型-最优间隔分类器。首先先引入两个间隔定义来衡量预测的置信度。 1. 函数间隔 引入函数间隔来描述预测的可靠性。我们从现在开始,本考虑二元分类时,输出值的可取值{-1,1}。 当wTx+b ≥ 0
阅读全文
posted @
2019-06-13 12:13
轩窗尘清
阅读(519)
评论(0)
推荐(0)
线性模型-线性回归、Logistic分类
摘要:线性模型是机器学习中最简单的,最基础的模型结果,常常被应用于分类、回归等学习任务中。 回归和分类区别: 回归:预测值是一个连续的实数; 分类:预测值是离散的类别数据。 1. 线性模型做回归任务中 线性回归方法,常见的损失函数是均方误差,其目标是最小化损失函数。以下是均方误差表达式: 那么基于均方误差
阅读全文
posted @
2019-06-13 10:39
轩窗尘清
阅读(1973)
评论(0)
推荐(0)
公告