文章分类 - 面试问题集锦
摘要:目标检测的任务表述 如何从图像中解析出可供计算机理解的信息,是机器视觉的中心问题。深度学习模型由于其强大的表示能力,加之数据量的积累和计算力的进步,成为机器视觉的热点研究方向。 那么,如何理解一张图片?根据后续任务的需要,有三个主要的层次: 分类(Classification) 分类即是将图像结构化
阅读全文
摘要:简介 "Network In Network" 是发表于2014年ICLR的一篇paper。这篇文章采用较少参数就取得了Alexnet的效果,Alexnet参数大小为230M,而Network In Network仅为29M。 文章的主要创新点为: 采用 mlpcon 的结构来代替 traditio
阅读全文
摘要:简介 "MobileNet v2" 相对于MobileNet v1而言没有新的计算单元的改变,有的只是结构的微调。 和MobileNet V1相比,MobileNet V2主要的改进有两点: Linear Bottlenecks 也就是去掉了小维度输出层后面的非线性激活层,目的是为了保证模型的表达能
阅读全文
摘要:简介 Google在2017年上半年发表了一篇关于可以运行在手机等移动设备上的神经网络结构—— "MobileNets" 。MobileNets是基于深度可分离卷积(depthwise separable convolution)而设计的轻量级深度神经网络。这文章也介绍了两个超参数可以很好的平衡延时
阅读全文
摘要:简介 "SqueezeNet" 是UC Berkeley和Stanford研究人员一起完成的网络结构和设计思想。SqueezeNet设计目标不是为了得到最佳的CNN识别精度,而是希望简化网络复杂度,同时达到public网络的识别精度。所以SqueezeNet主要是为了降低CNN模型参数数量而设计的。
阅读全文
摘要:简介 "ResNet(Residual Neural Network)" 由微软研究院的Kaiming He等四名华人提出,通过使用ResNet Unit成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,同时参数量比VGGNet低,效果非常突出
阅读全文
摘要:神经网络 这里的神经网络,也指人工神经网络(Artificial Neural Networks,简称ANNs),是一种模仿生物神经网络行为特征的算法数学模型,由神经元、节点与节点之间的连接(突触)所构成,如下图: 每个神经网络单元抽象出来的数学模型如下,也叫感知器,它接收多个输入(x1,x2,x3
阅读全文
摘要:简介 GoogLeNet设计的初衷就是要又准又快,而如果只是单纯的堆叠网络虽然可以提高准确率,但是会导致计算效率有明显的下降,所以如何在不增加过多计算量的同时提高网络的表达能力就成为了一个问题。 GoogLeNet Inception V3在 "《Rethinking the Inception A
阅读全文
摘要:简介 2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构,而GoogLeNet则做了更加大胆的网络结构尝试,虽然
阅读全文
摘要:简介 "VGG" 是牛津大学VGG组提出的。VGG是Visual Geometry Group, Department of Engineering Science, University of Oxford的缩写。VGGNet获得了ImageNet 2014年比赛的亚军和定位项目的冠军,在top5
阅读全文
摘要:简介 2012年,Khrizhevsky,Sutskever和Hinton凭借8层的卷积神经网络 "AlexNet" ,以很大的优势赢得了ImageNet 2012图像识别挑战赛,识别错误率比第二名低大概10个百分点。 网络结构 conv1 阶段 输入数据:227×227×3 卷积核:11×11×3
阅读全文
摘要:简介 "LeNet 5" 是一个用来识别手写数字的最经典的卷积神经网络,是Yann LeCun在1998年设计并提出的。Lenet的网络结构规模较小,但包含了 卷积层、池化层、全连接层 ,他们都构成了现代CNN的基本组件。 网络结构 LeNet 5共有 7层 ,有2个卷积层、2个下抽样层(池化层)、
阅读全文
摘要:交叉熵代价函数: C=1n∑x[ylna+(1y)ln(1a)]
导数计算: $$ \begin{aligned} \frac{\partial C}{\partial w_{j}} &= \frac{1}{n} \sum_{x}\lef
阅读全文
摘要:梯度消失和梯度爆炸的现象 对于图1所示的含有3个隐藏层的神经网络: 梯度消失问题发生时,靠近输出层的hidden layer 3的权值更新相对正常,但是靠近输入层的hidden layer1的权值更新会变得很慢,导致靠近输入层的隐藏层权值几乎不变,扔接近于初始化的权值。这就导致hidden laye
阅读全文
摘要:为了消除数据特征之间的量纲影响, 我们需要对特征进行归一化处理, 使得不同指标之间具有可比性。 对数值类型的特征做归一化可以将所有的特征都统一到一个大致相同的数值区间内。 最常用的方法主要有以下两种。 线性函数归一化(Min Max Scaling) 。 它对原始数据进行线性变换, 使结果映射到[0
阅读全文
摘要:评价指标 混淆矩阵(confusion matrix) 给定一个模型的预测标签时,混淆矩阵可以被用来快速计算精度和召回率。 对于二分类问题: 真正例(TP):实际上是正例的数据点被标记为正例 假正例(FP):实际上是反例的数据点被标记为正例 真反例(TN):实际上是反例的数据点被标记为反例 假反例(
阅读全文
摘要:在机器学习中, 我们通常把样本分为训练集和测试集, 训练集用于训练模型, 测试集用于评估模型。 在样本划分和模型验证的过程中, 存在着不同的抽样方法和验证方法。 Holdout检验 Holdout 检验是最简单也是最直接的验证方法, 它将原始的样本集合随机划分成训练集和验证集两部分。 比方说, 我们
阅读全文
摘要:逻辑回归 sigmoid 函数 sigmoid函数,其数学形式是: g(x)=11+ex
函数曲线: sigmoid函数是一个s形的曲线,它的取值在[0, 1]之间,在远离0的地方函数的值会很快接近0/1。 为何使用Sigmoid 函数 指数族分别满足: $p(
阅读全文
摘要:为什么需要 Normalization 独立同分布与白化 独立同分布并非所有机器学习模型的必然要求(比如 Naive Bayes 模型就建立在特征彼此独立的基础之上,而Logistic Regression 和神经网络则在非独立的特征数据上依然可以训练出很好的模型),但独立同分布的数据可以简化常规机
阅读全文
摘要:L1正则化与稀疏性 稀疏性 说白了就是模型的很多参数是0。 这相当于对模型进行了一次特征选择, 只留下一些比较重要的特 征, 提高模型的泛化能力, 降低过拟合的可能。 正则化 通过降低复杂模型的复杂度来防止过拟合的规则被称为正则化! 正则化方法是在经验风险或者经验损失Lemp(empr
阅读全文