摘要:
本文从信息论和最大似然估计得角度推导交叉熵作为分类损失函数的依据。 从熵来看交叉熵损失 信息量 信息量来衡量一个事件的不确定性,一个事件发生的概率越大,不确定性越小,则其携带的信息量就越小。 设$X$是一个离散型随机变量,其取值为集合$X = {x_0,x_1,\dots,x_n}$ ,则其概率分布 阅读全文
摘要:
均方误差(Mean Square Error,MSE)和平均绝对误差(Mean Absolute Error,MAE) 是回归中最常用的两个损失函数,但是其各有优缺点。为了避免MAE和MSE各自的优缺点,在Faster R CNN和SSD中使用$\text{Smooth} L_1$损失函数,当误差在 阅读全文
摘要:
总结对比下$L_1$ 损失函数,$L_2$ 损失函数以及$\text{Smooth} L_1$ 损失函数的优缺点。 均方误差MSE ($L_2$ Loss) 均方误差(Mean Square Error,MSE)是模型预测值$f(x)$ 与真实样本值$y$ 之间差值平方的平均值,其公式如下 $$ M 阅读全文
摘要:
咸鱼了半年,年底了,把这半年做的关于目标的检测的内容总结下。 本文主要有两部分: 目标检测中的边框表示 Anchor相关的问题,R CNN,SSD,YOLO 中的anchor 目标检测中的边框表示 目标检测中,使用一个矩形的边框来表示。在图像中,可以基于图像坐标系使用多种方式来表示矩形框。 最直接的 阅读全文
摘要:
本文是PyTorch使用过程中的的一些总结,有以下内容: 构建网络模型的方法 网络层的遍历 各层参数的遍历 模型的保存与加载 从预训练模型为网络参数赋值 主要涉及到以下函数的使用 ,`ModulesList Sequential` 模型创建 ,`named_modules() children() 阅读全文
摘要:
设计好神经网络结构以及loss function 后,训练神经网络的步骤如下: 1. 初始化权值参数 2. 选择一个合适的梯度下降算法(例如:Adam,RMSprop等) 3. 重复下面的迭代过程: 1. 输入的正向传播 2. 计算loss function 的值 3. 反向传播,计算loss fu 阅读全文
摘要:
人群计数的方法分为传统的视频和图像人群计数算法以及基于深度学习的人群计数算法,深度学习方法由于能够方便高效地提取高层特征而获得优越的性能是传统方法无法比拟的。本文简单了秒速了近几年,基于单张图像利用CNN估计人群密度图和计数的方法。 1. 传统的人群计数方法 传统的人群计数方法可以分为两类,基于检测 阅读全文
摘要:
本文算是对常用梯度图下降的算法综述,从方向导数开始得到梯度下降的原始算法,接着描述了动量梯度下降算法。 而由于超参数学习率对梯度下降的重要性,所以梯度算法就有多个自适应梯度下降算法。 主要有以下内容: 方向导数和梯度下降 梯度下降的形式,批量梯度下降,SGD以及mini batch 梯度下降 梯度下 阅读全文
摘要:
YOLO V2 YOLO V2是在YOLO的基础上,融合了其他一些网络结构的特性(比如:Faster R CNN的Anchor,GooLeNet的$1\times1$卷积核等),进行的升级。其目的是弥补YOLO的两个缺陷: YOLO中的大量的定位错误 和基于区域推荐的目标检测算法相比,YOLO的召回 阅读全文
摘要:
前面介绍的R CNN系的目标检测采用的思路是:首先在图像上提取一系列的候选区域,然后将候选区域输入到网络中修正候选区域的边框以定位目标,对候选区域进行分类以识别。虽然,在Faster R CNN中利用RPN网络将候选区域的提取以放到了CNN中,实现了end to end的训练,但是其本质上仍然是提取 阅读全文