摘要: 1.为什么要用Normalization 翻译过来就是归一化的意思,指将传统机器学习中的数据归一化方法应用到深度神经网络中,对神经网络中隐藏层的输入进行归一化,从而使网络更加容易训练。 因为, 它有更好的尺度不变性,即给定一个神经层L,它之前神经层L-1的参数变化会导致其输入的分布发生较大的改变,当 阅读全文
posted @ 2022-04-15 02:21 Dr_Zhou 阅读(97) 评论(0) 推荐(0)
摘要: 1.设计原理 采用的原理是梯度下降法,即最小化目标函数 J,最优化的求解过程,首先求解目标函数的梯度 ,然后将参数向负梯度方向更新,学习率表明梯度更新的步伐的大小,最优化的过程依赖的算法称为优化器,可以看出深度学习优化器的两个核心是梯度与学习率,前者决定参数更新的方向,后者决定参数的更新程度。 优化 阅读全文
posted @ 2022-04-13 16:08 Dr_Zhou 阅读(150) 评论(0) 推荐(0)
摘要: 1.首先为什么要有激活函数 若网络中不用激活函数,那么每一层的输出都是输入的线性组合。无论神经网络有多少层,网络的输出都是输入的线性组合,这种网络就是原始的感知机。若网络没有激活函数,则每层就相当于矩阵相乘,深层神经网络,无非是多矩阵相乘。激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任 阅读全文
posted @ 2022-04-12 16:36 Dr_Zhou 阅读(120) 评论(0) 推荐(0)
摘要: 有很多分类指标,在分类任务,检测任务,和图像分割任务都有不同的评价指标,每个指标都有各自的优点,常常是用多个指标来衡量一个模型。现在对分类和检测任务的指标做一个小结。 1.分类任务 对于分类任务,有这样一个表: 1.1 Accuray 它指正确预测样本数占总数的多少 即,TP + TN / TP + 阅读全文
posted @ 2022-04-09 21:57 Dr_Zhou 阅读(122) 评论(0) 推荐(0)
摘要: 1.关于sum函数:sum(-1)、sum(1)、sum(0): 功能: 求行列之和 参数: axis:需要排序的维度 返回值: 输出计算后的数组 2.np.argsort(a): 功能: 将矩阵a按照axis从小到大排序,并返回排序后的下标 参数: a:输入矩阵, axis:需要排序的维度 返回值 阅读全文
posted @ 2022-04-03 19:19 Dr_Zhou 阅读(45) 评论(0) 推荐(0)
摘要: 这些天做目标检测,模型用到yolov3,做关于阿里天池街景字符检测,关于数据处理这一块遇到了些问题,比如从json,xml这些标签文件里如何提取需要的信息,归纳到指定文件夹并对python里的文件操作很生疏,就这几天的两个项目做一个总结。 1.数据集 /data目录下 /data/mchar_tra 阅读全文
posted @ 2022-03-27 23:55 Dr_Zhou 阅读(162) 评论(0) 推荐(0)
摘要: 1. 背景 YOLOv2相对于v1版本,继续保持了很高的处理速度,但是在预测的准确率上有个很高的提高,但是其基本思想还是和v1版本是一致的,通过划分网格,以及使用简单的网络结构来处理分类问题。 由于YOLO系列,都是从V1开始逐步进行一些缺点的改进,故后面将只叙述改进部分的细节。 2.具体改进措施 阅读全文
posted @ 2022-03-24 22:38 Dr_Zhou 阅读(155) 评论(0) 推荐(0)
摘要: 1.PyTorch 中的亦混 loss Pytorch 中提供了很多类型的 loss (Criterion),如 l1, l2, crossentropy 等。同时,同一种 criterion 可 能被包含在不同的功能模块下,如 torch.nn,torch.nn.functional 等。 1.1 阅读全文
posted @ 2022-03-20 14:14 Dr_Zhou 阅读(708) 评论(0) 推荐(0)
摘要: 1. 从Two-Stage到One-Stage 以发展的眼光看待问题,回顾two stage算法,为什么一定要先产生proposal,再做回归呢,为什么不可以直接找出目标而后标注呢? 2.YOLO V1细节 YOLO网络结构由24个卷积层与2个全连接层构成,网络入口为448x448,图片进入网络先经 阅读全文
posted @ 2022-03-18 14:57 Dr_Zhou 阅读(72) 评论(0) 推荐(0)
摘要: 1. 从Fast R-CNN到Fast R-CNN 由图可见,Faster-RCNN引入了RPN网络(region proposal network)来代替selective-search, 这使得整个网络实现了端到端,即在统一的架构处理所有问题。这也是比Fast更快的原因,避免了selective 阅读全文
posted @ 2022-03-18 12:24 Dr_Zhou 阅读(100) 评论(0) 推荐(0)