摘要:
理解 Word2Vec 之 Skip-Gram 模型 模型 Word2Vec模型中,主要有Skip-Gram和CBOW两种模型,从直观上理解,Skip-Gram是给定input word来预测上下文。而CBOW是给定上下文,来预测input word。本篇文章仅讲解Skip-Gram模型。 Word 阅读全文
摘要:
无痛理解CNN中的感受野receptive field CNN中感受野的计算 从直观上讲,感受野就是视觉感受区域的大小。在卷积神经网络中,感受野的定义是决定某一层输出结果中一个元素所对应的输入层的区域大小 感受野计算时有下面的几个情况需要说明: a)第一层卷积层的输出特征图像素的感受野的大小等于滤波 阅读全文
摘要:
线性可分支持向量机 函数间隔和几何间隔 max(2/||w||) 或min((1/2)*||w||) 原始问题的对偶问题是极大极小问题 maxaminw,b 1.对w,b求偏导数并令其等于0 2.KKT条件 从KKT条件可知,对偶问题解出的α参数,仅support vectors的αi非零,其余全0 阅读全文
摘要:
CS231n课程笔记翻译:神经网络笔记1(上) 一、常用激活函数 每个激活函数(或非线性函数)的输入都是一个数字,然后对其进行某种固定的数学操作。下面是在实践中可能遇到的几种激活函数: ———————————————————————————————————————— 左边是Sigmoid非线性函数, 阅读全文
摘要:
Coursera吴恩达《优化深度神经网络》课程笔记(3)-- 超参数调试、Batch正则化和编程框架 1. Tuning Process 深度神经网络需要调试的超参数(Hyperparameters)较多,包括: :学习因子 :动量梯度下降因子 :Adam算法参数 #layers:神经网络层数 #h 阅读全文
摘要:
概述 鉴于决策树容易过拟合的缺点,随机森林采用多个决策树的投票机制来改善决策树,我们假设随机森林使用了m棵决策树,那么就需要产生m个一定数量的样本集来训练每一棵树,如果用全样本去训练m棵决策树显然是不可取的,全样本训练忽视了局部样本的规律,对于模型的泛化能力是有害的 产生n个样本的方法采用Boots 阅读全文
摘要:
CS231n之线性分类器 斯坦福CS231n项目实战(二):线性支持向量机SVM CS231n 2016 通关 第三章-SVM与Softmax cs231n:assignment1——Q3: Implement a Softmax classifier cs231n线性分类器作业:(Assignme 阅读全文
摘要:
Canopy聚类算法(经典,看图就明白) 聚类算法。 这个算法获得的并不是最终结果,它是为其他算法服务的,比如k-means算法。它能有效地降低k-means算法中计算点之间距离的复杂度。 图中有一个T1,一个T2,我们称之为距离阀值,显然T1>T2,这两个值有什么用呢?我们先确定了一个中心,然后计 阅读全文
摘要:
0.axis的意义 Pandas保持了Numpy对关键字axis的用法,用法在Numpy库的词汇表当中有过解释: 轴用来为超过一维的数组定义的属性,二维数据拥有两个轴:第0轴沿着行的垂直往下,第1轴沿着列的方向水平延伸。 如果简单点来说,就是0轴匹配的是index, 涉及上下运算;1轴匹配的是col 阅读全文
摘要:
在官网下载thingsboard和tb-gateway 需要安装java8 thingsboard服务安装 https://thingsboard.io/docs/user-guide/install/windows/ 把thingsboard-windows-1.4.zip解压到C盘 在这个文件夹 阅读全文