11 2018 档案
摘要:内联函数,关键字inline,放在函数最前面修饰。 宏函数,预处理器处理,进行简单的文本替换,没有任何编译过程。
阅读全文
摘要:1、C++中命名空间的作用 变量或数据类型重名时,可以定义不同命名空间(作用域),然后再引用变量或数据类型。 namespace spaceA{ int abc; } 可以这样引用变量spaceA::abc,using spaceA::abc,using namespace spaceA。 2、C语
阅读全文
摘要:彩色图像转为灰度图像: 1.三个颜色通道像素值加和取均值(B+G+R)/3; 2.三个通道按照公式:r*0.299+g*0.587+b*0.114 计算效率:定点大于浮点,+- > */,移位(左移<<为乘,右移>>为除)大于乘除,所以算法优化如下图: 注:浮点型转成整型会存在误差,右图为实现马赛克
阅读全文
摘要:一、C语言的常量是可以通过地址进行修改的;而C++的常量是不可修改的,且在定义的时候必须初始化! 可引用常量的地址,但只是临时地址: const int a = 10 ; int *b = (int*)&a ; //开辟临时地址给a,实际并不能访问a的地址,它在符号表中,不可修改 宏是在预编译阶段(
阅读全文
摘要:一、概念 dilate(膨胀): 取所操作区域的最大值代替中心像素值(锚点),算子的移动与卷积操作相同。 erode(腐蚀): 取所操作区域的最小值代替中心像素值(锚点)。 形态学梯度:morphology gradient,膨胀减去腐蚀。 开操作:先腐蚀再膨胀 闭操作:先膨胀再腐蚀 顶帽:toph
阅读全文
摘要:说明: 在破解软件时,需要修改系统的hosts文件,但有的系统该文件所在的文件夹不可见,即使设置成隐藏可见, 还是不可见该文件。 遇到该种情况,可以通过CMD命令符打开hosts文件进行修改。 在我个人使用Idea软件破解时、sublime软件破解时,finalshell修改主机映射时,均遇到该问题
阅读全文
摘要:深度学习框架Caffe: 神奇且强大的Caffe: 在GitHub上有一个小社区:Model Zoo Caffe官网: 可以通过Caffe官网的实例进行Caffe学习的快速入门。
阅读全文
摘要:Data Augmentation 水平翻转(horizontal flips),镜像操作,是数据增强的常用操作; 随机裁剪(实际要检测的部分可能是被遮蔽的、或者光线强度不同、姿势不同等,所以训练时采用裁剪某个大小进行训练) 随机大小(大小变换,图像进行放大和缩小,不同大小的也要做随机的裁剪)。 其
阅读全文
摘要:location 对输入图像定位,找到盒子坐标(x,y,w,h);Clssificaion and Location的最后一层是的特征做两件事,一个是分类,一个是定位。 训练时使用已有的模型,也就是最后一层全联接之前所有的参数都用已有模型的,然后在这个基础上进行微调(fine tune),使其向着想
阅读全文
摘要:一、递归神经网络RNN 实际属于输入之间可能是存在联系的,所以在多次输入x0、x1........中,每次的中间信息A(也称为机器单元)都保存下来传给下次输入的中间信息A,每次输入的计算结果h0、h1......不一定是目标结果可以不使用,只有最终的ht是想要的预测结果。 递归神经网络适合自然语言处
阅读全文
摘要:一、下载VS2017社区版 该版本可免费使用 二、OpenCV3.4.1下载及安装 1、下载地址:https://i.cnblogs.com/EditPosts.aspx?opt=1,Download下选择“win pack”版; 2、将下载的opencv-3.4.1-vc14_vc15.exe右键
阅读全文
摘要:卷积层和池化层 与神经网络相比,卷积神经网络多了卷积层和池化层,基本顺序为data-conv-ReLU-Pooling-FC(全联接层)-s 一、卷积神经网络的权重共享 经典神经网络:全连接,即每个神经元都与每一个数据有对应的参数; 卷积神经网络是权重共享的,就是得到的特征图的每个像素点都是原图的一
阅读全文
摘要:一、激活函数 线性操作分类能力不强,而非线性表达可以分开数据。 神经网络中隐层就是增加了激活函数,使得神经网络表达出更强大的效果。 Sigmoid可作为激活函数,但容易引起梯度消失(导数趋近于0)。 max(0,x)就是ReLU激活函数,可以解决梯度消失问题,导数简单,已经常用的神经网络激活函数。
阅读全文