06 2019 档案

摘要:1.启动关闭 start-dfs.sh //启动hdfs start-YARN.sh //启动YARN start-all.sh //同时启动hdfs和YARN jps //查看节点运行进程 stop-all.sh //停止hdfs和YARN 2.hdfs基本命令 阅读全文
posted @ 2019-06-29 19:39 xd_xumaomao 阅读(1888) 评论(0) 推荐(0) 编辑
摘要:CNN CNN为什么比DNN在图像识别上更好 如果把图像的每个像素都当成一维特征的话,输入特征维度将会非常大,用DNN的话需要训练的参数太过庞大根本无法训练。而CNN采用了参数共享机制有效的减少了需要训练的参数的数目,而且在图像中邻近像素具有比较大的关联性,适合用卷积处理。 CNN输出尺寸计算 池化 阅读全文
posted @ 2019-06-24 22:32 xd_xumaomao 阅读(575) 评论(0) 推荐(0) 编辑
摘要:bagging bagging的弱分类器之间是相互独立的,容易并行,bagging方法主要是能减少方差。 bagging对样本进行采样时采用有放回的采样(自助法),一般会随机采集和训练集样本数m一样个数的样本。这样得到的采样集和训练集样本的个数相同,但是样本内容不同 代表算法:随机森林 boosti 阅读全文
posted @ 2019-06-24 21:48 xd_xumaomao 阅读(207) 评论(0) 推荐(0) 编辑
摘要:Batch Normalization 原理 Batch Norm的思路是调整各层的激活值分布使其拥有适当的广度 。 原理:(在反向传播的过程中乘了上一层的输出,当每层的输出都小于1时就会造成梯度消失,大于1时会造成梯度爆炸)BN对每一层的输出都做了标准化使得原本会减小的activation的sca 阅读全文
posted @ 2019-06-24 21:25 xd_xumaomao 阅读(346) 评论(0) 推荐(0) 编辑
摘要:过拟合产生的原因? 过拟合的表现:模型在训练集上误差很小,在测试集上误差很大。 过拟合主要由两个方面决定:一是数据集,二是模型。 我认为过拟合问题目前来说只能减少不能避免。 数据集角度: 我们知道无论是机器学习还是深度学习,都是通过在训练集上做训练来最小化训练集上的损失函数来得到想要的模型,也就是说 阅读全文
posted @ 2019-06-24 21:20 xd_xumaomao 阅读(690) 评论(0) 推荐(0) 编辑
摘要:均方误差损失 J(W,b,a,y)=12ya2 回归问题中,输出层一般用恒等函数,损失函数使用均方误差损失。 交叉熵损失 二分类:\[J\left( {W,b,a,y} \right) = 阅读全文
posted @ 2019-06-24 17:39 xd_xumaomao 阅读(460) 评论(0) 推荐(0) 编辑
摘要:深度学习中激活函数总结 深度学习中Batch Normalization和Dice激活函数 Sigmoid σ(z)=11+ez,${\sigma ^`}\left( z \right) = \sigma \le 阅读全文
posted @ 2019-06-24 17:01 xd_xumaomao 阅读(270) 评论(0) 推荐(0) 编辑
摘要:基本用法 必须使用列表初始化的情况 注意:成员初始化的顺序与它们在类定义中出现的顺序一致。 复制构造函数 新建一个对象并将其初始化为同类现有对象时,复制构造函数都将被调用。 以下4中情况都将调用复制构造函数: 注意:如果类中包含了使用new初始化的指针成员,应当定义一个复制构造函数,以复制指向的数据 阅读全文
posted @ 2019-06-22 12:57 xd_xumaomao 阅读(202) 评论(0) 推荐(0) 编辑
摘要:类声明 //stock00.h#ifndef UNTITLED_STOCK00_H #define UNTITLED_STOCK00_H #include <string> class Stock { private: std::string company; public: void set(); 阅读全文
posted @ 2019-06-22 11:43 xd_xumaomao 阅读(193) 评论(0) 推荐(0) 编辑
摘要:引用必须在声明时就初始化,且以后不能改变 int rats = 1; int & r = rats; 当函数返回值为引用时 若返回栈变量: 不能成为其它引用的初始值 若返回静态变量或全局变量:可以成为其他引用的初始值 #include <iostream> using namespace std; 阅读全文
posted @ 2019-06-20 20:48 xd_xumaomao 阅读(133) 评论(0) 推荐(0) 编辑
摘要:C++内联函数在编译时编译器使用相应的函数代码代替函数调用。对于内联代码,程序无需跳到另一个地方执行代码再调回来,因而可以节省时间,但是也消耗了更多的内存。 inline double square(double x) { return x * x; } 注意:在类内定义的函数C++编译器默认为内联 阅读全文
posted @ 2019-06-20 20:18 xd_xumaomao 阅读(187) 评论(0) 推荐(0) 编辑
摘要:二项LR 二项LR模型 \[\begin{array}{*{20}{l}}{P\left( {Y = 1|x} \right) = \frac{{{e^{w \cdot x}}}}{{1 + {{\rm{e}}^{w \cdot x}}}} = \sigma \left( {w \cdot x} \ 阅读全文
posted @ 2019-06-19 10:42 xd_xumaomao 阅读(299) 评论(0) 推荐(0) 编辑
摘要:决策树与条件概率分布 决策树在概率论的角度解释就是每次选择一个特征,然后根据该特征的不同取值对特征空间进行划分,如此递归下去把特征空间划分为一个个子区域,对于落在这个子区域上的样本,我们可以用条件概率分布P(Y|X)来表示这些样本的概率分布,最终把条件概率最大的类别作为该子区域中的样本的类别。 ID 阅读全文
posted @ 2019-06-18 10:41 xd_xumaomao 阅读(397) 评论(0) 推荐(0) 编辑
摘要:条件概率:P(B|A)=P(A,B)P(A) 乘法定理:\[\begin{array}{l}P\left( {A,B} \right) = P\left( {B|A} \right)P\left( A \right)\\P\left 阅读全文
posted @ 2019-06-17 16:53 xd_xumaomao 阅读(297) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-06-14 22:50 xd_xumaomao 阅读(148) 评论(0) 推荐(0) 编辑
摘要:原始形式 模型 线性二分类模型 f(x)=sign(wx+b) 学习策略 误分类点到超平面函数距离最小化 损失函数:$\mathop {\min }\limits_{w,b} L\left( {w,b} \righ 阅读全文
posted @ 2019-06-14 11:37 xd_xumaomao 阅读(229) 评论(0) 推荐(0) 编辑
摘要:socket概念 Socket是应用层与TCP/UDP协议族通信的中间软件抽象层,它是一组接口。在设计模式中,Socket其实就是一个门面模式,它把复杂的TCP/UDP协议族隐藏在Socket接口后面,对用户来说,一组简单的接口就是全部,让Socket去组织数据,以符合指定的协议。 其实站在你的角度 阅读全文
posted @ 2019-06-12 22:17 xd_xumaomao 阅读(197) 评论(0) 推荐(0) 编辑
摘要:算法思想 分治思想 时间复杂度和空间复杂度 归并排序最好和最坏情况的时间复杂度都是O(n)log(n),空间复杂度度是O(n) 稳定性 稳定 python实现 C++实现 阅读全文
posted @ 2019-06-12 12:40 xd_xumaomao 阅读(274) 评论(0) 推荐(0) 编辑
摘要:算法思想和步骤 快速排序算法是一种基于交换的高效的排序算法,它采用了分治法的思想: 1、从数列中取出一个数作为基准数(一般把第一个数作为基准数)。 2、将数组进行划分(partition),将比基准数大的元素都移至枢轴右边,将小于等于基准数的元素都移至枢轴左边。 3、再对左右的子区间重复第二步的划分 阅读全文
posted @ 2019-06-12 11:41 xd_xumaomao 阅读(319) 评论(0) 推荐(0) 编辑
摘要:/** * Definition for a binary tree node. * struct TreeNode { * int val; * TreeNode *left; * TreeNode *right; * TreeNode(int x) : val(x), left(NULL), r 阅读全文
posted @ 2019-06-06 09:27 xd_xumaomao 阅读(274) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示