11 2022 档案
摘要:对于深度学习模型优化,通常从以下几点进行: 1、数据方面: 1)数据预处理:比如可以进行重采样;设置图像强度阈值。 2)数据增广:对于图像来说,可以对图像进行平移、旋转、镜像、添加噪声,改变对比度等方法进行数据扩充。这是一个对图像数据进行扩充的一些库:https://github.com/album
阅读全文
摘要:详细介绍这里,清楚的介绍了三种损失函数。我这里重点记录一下他们的异同,方便自己消化理解。 1、对于回归损失函数,通常主要有MSE(均方误差),MAE(平均绝对误差),Huber Loss。其中,Huber Loss(也叫smooth L1 Loss)是为了消除二者的缺点而提出来的。 2、通常MSE
阅读全文
摘要:图像分割是建立在图像分类和目标检测的基础之上。所以难度也要比图像分类要难。同时,两个任务在评价指标上其实也就存在一些相同,比如都会用到混淆矩阵,准确率,精确率,召回率,F1-score,IOU等评价指标,这些指标的计算我已经在之前图像分割评价指标介绍过了。下面就介绍一下图像分割中没介绍,但是在图像分
阅读全文
摘要:对于图像分割,首先可能会想到TP(True Positives), TN(True Negatives), FP(False Positives),FN(False Negatives)这几个单词,但实际上由他们几个单词组成的混淆矩阵(confusion matrix)才是重点。 真实 预测 正例
阅读全文
摘要:这两篇[1]【2】博客写的都非常详细。这里做个笔记记录一下。 HOG称为方向梯度直方图(Histogram of Oriented Gradient),主要是为了对图像进行特征提取。所以在传统目标检测算法中经常与SVM结合用于行人识别任务(当前都是基于深度学习来做了,毕竟效果不要太好了,并且省去了繁
阅读全文
摘要:主要是为了个人理解,做个笔记 1、Pytorch代码 2、论文出处 3、详细介绍 这篇论文在2018年发出来,而ShuffleNet是从2017年由旷视发出来。起初了解shufflenet的提出,主要是为了解决分组卷积所导致的不同分组间信息无法交流的问题,所以采用了channel shuffle操作
阅读全文
摘要:1、为了方便理解其本身结构,找到源码理解一下。 2、论文地址:http://arxiv.org/pdf/1801.04381.pdf 3、V2相比较V1增加了倒残差结构和线性瓶颈层。整个结构按照维度来看,类似一个中间宽,两边窄的结构。其中最后一层使用linear卷积(没有使用ReLU进行非线性激活,
阅读全文
摘要:来源 卷积: 输入尺寸 ,卷积核的大小为 * ,输出的尺寸大小为 参数量 (1)不考虑bias:(2)考虑bias: FLOPs (1)不考虑bias 解释:先计算输出的中一个元素需要的计算量,即括号这一部分,根据卷积的公式可知这部分为 * + * ,其中前一项表示做了的乘法次数,后一项表示这些乘法
阅读全文