随笔分类 - 机器学习
摘要:知乎的一篇文章: 关于如何使用nvidia smi查看显存与GPU使用情况,参考如下链接: 其中在知乎的那篇文章中,有一处,我认为有错: 应为: 先乘后加算一次MACC(multipy accumulate operation),有的也叫MADD。 每一次乘算一次flop,每一次加算一次flop。
阅读全文
摘要:1 作用 众所周知,全连接层之前的作用是提取特征,全连接层的作用是分类。 2 关键阶段介绍 假设通过CNN已经提取到特征,下一层是全连接层,这个阶段比较关键,举个例子说明: 上图中CNN的输出是3x3x5的特征图,它是怎么样转换成1x4096的形式呢? 很简单,可以理解为在中间做了一个卷积。这一步卷
阅读全文
摘要:1 概述 在读计算机视觉的相关论文时,经常会看到平移不变性这个词,本文将介绍卷积神经网络中的平移不变性是什么,以及为什么具有平移不变性。 2 什么是平移不变性 2.1 不变性 不变性意味着即使目标的外观发生了某种变化,但是你依然可以把它识别出来。 这对图像分类来说是一种很好的特性,因为我们希望图像中
阅读全文
摘要:1 概述 两个向量之间的距离(此时向量作为n维坐标系中的点)计算,在数学上称为向量的距离(Distance),也称为样本之间的相似性度量(Similarity Measurement)。它反映为某类事物在距离上接近或远离的程度。直觉上,距离越近的就越相似,越容易归为一类;距离越远越不同。 2 常用距
阅读全文
摘要:1 softmax 我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。这一篇主要介绍全连接层和损失层的内容,算是网络里面比较基础的一块内容。先理清下从全连接层到损失层之间的计算。来看下面这张图。 这张图的等号
阅读全文
摘要:定义 在迁移学习中, 当源域和目标的数据分布不同 ,但两个任务相同时,这种 特殊 的迁移学习 叫做域适应 (Domain Adaptation)。 Domain adaptation有哪些实现手段呢? 几乎所有的手段都尝试去学习一个特征转换,使得在转换过后的特征空间上,source dataset和
阅读全文
摘要:1 错误率与精度 分类错误的样本数占样本总数的比例。 分类正确的样本数占样本总数的比例。 2 查准率(precision) 查全率(recall) F1 查准率又叫“准确率”,通俗的理解是“挑出的西瓜有多少比例是好瓜”;查全率又叫“召回率”,通俗的理解是“所有的好瓜中有多少比例被挑出来了”。 对于二
阅读全文
摘要:在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。神经元之所以无法对原始图像的所有信息进行感知,是因为在这些网络结构中普遍使用卷积层和pooling层,在层与层之间均为局部相连(通过sliding filter)。神经元感受野的值越大表示
阅读全文
摘要:1.数据库 Dataset1.txt:328个同学的身高、体重、性别数据(78个女生250个男生) Dataset2.txt:124个同学的数据(40女、84男) Dataset3.txt:90个同学的数据(16女,74男) 数据集:提取码:e8ph 2.需要完成的工作 (1)以dataset1为训
阅读全文
摘要:网站首页: 网址:数据集
阅读全文
摘要:PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的
阅读全文
摘要:从去年8月份开始,AI界大IP吴恩达在coursera上开设了由5们课组成的深度学习专项课程,掀起了一股人工智能深度学习热潮。这里附上deeplearning.ai的官网:deeplearning.ai,也可以在网易云课堂学习(有中文字幕)!!! 关于该深度学习专项课程,本人非常推荐!它对于理解各种
阅读全文
摘要:在深度学习的算法学习中,都会提到 channels 这个概念。在一般的深度学习框架的 conv2d 中,如 tensorflow 、mxnet ,channels 都是必填的一个参数。 channels 该如何理解?先看一看不同框架中的解释文档。 首先,是 tensorflow 中给出的,对于输入样
阅读全文
摘要:最近看论文的时候,接触到了3-D卷积的知识,在找的过程中,发现“卷积、卷积核的维数、尺寸”这篇文章写的较详细,就搬运了过来,只是为了以后查找方便。 注:如果原作者看到,如果觉得不妥,我可以马上删掉这篇文章!!!
阅读全文
摘要:一 介绍 scikit-learn是Python的一个开源机器学习模块,它建立在NumPy,SciPy和matplotlib模块之上。值得一提的是,scikit-learn最先是由David Cournapeau在2007年发起的一个Google Summer of Code项目,从那时起这个项目就
阅读全文
摘要:我课题组做基于深度学习的图像处理主要分两条线: 基于深度学习的目标检测 网络压缩 我的方向是网络压缩,为了以后方便展开,下边先简要介绍几种网络压缩的方式,: 1 网络修剪网络修剪,采用当网络权重非常小的时候(小于某个设定的阈值),把它置0,就像二值网络一般;然后屏蔽被设置为0的权重更新,继续进行训练
阅读全文
摘要:一 概述 Transfer Learning 利用与task没有直接相关的data。那么什么叫没有直接相关呢? 比如: 那么为什么要利用不直接相关的数据呢,如下: Example in real life 二 各种情况对应的解决方法 分成四个象限:下面将以象限作为小标题。 Target Data:直
阅读全文
摘要:一 前言 1.1 Creation 据说在费曼死后,人们在他生前的黑板上拍到如图画片,在左上角有道:What i cannot create ,I do not understand. Generative models,就是在做创造的事情。 1.2 Image Processing 二 Gener
阅读全文
摘要:一 Auto-encoder NN Encoder & NN Decoder 要一起训练。 二 Starting from PCA 三 Deep Auto-encoder PCA&Deep Auto-encoder 比较,明显后者效果更好。 当code为二维时,很明显看到Deep Auto-enco
阅读全文