摘要:
arxiv:1504.08083 参考 FastRCNN_哔哩哔哩_bilibili 44 物体检测算法:R-CNN,SSD,YOLO【动手学深度学习v2】_哔哩哔哩_bilibili 初读 R-CNN首次提出将CNN应用于目标检测领域,SPPNet提出SPP layer,提升了R-CNN的速度。但 阅读全文
摘要:
arxiv:1406.4729 初读 传统CNN要求固定输入图片的大小,因此若输入图片不符合要求,需要对输入的图片进行大小变换,包括剪裁和长宽变形,这样的处理有可能会使得模型的性能下降。提出空间金字塔池化层(spatial pyramid polling),可以实现直接输入任意大小图片,通过SPP输 阅读全文
摘要:
阅读论文(3)R-CNN:Rich feature hierarchies for accurate object detection and semantic segmentation 参考: R-CNN算法精讲 - 同济子豪兄 -_哔哩哔哩_bilibili 1.1Faster RCNN理论合集 阅读全文
摘要:
arXiv:1409.1556 参考: https://www.bilibili.com/video/BV1Ao4y117Pd/?spm_id_from=333.999.0.0 4.2 使用pytorch搭建VGG网络_哔哩哔哩_bilibili VGG模型 VGG结构共有5个VGG块,主要模型为V 阅读全文
摘要:
数据集区分 参考:11 模型选择 + 过拟合和欠拟合【动手学深度学习v2】_哔哩哔哩_bilibili 训练数据集 相当于平时作业题/练习题,用来训练模型(梯度下降更新权重、偏置最小化代价函数) 验证数据集 相当于模拟考试,用来调参(超参数:learning rate、batch size) 测试数 阅读全文
摘要:
损失函数 参考: “损失函数”是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”_哔哩哔哩_bilibili “交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”_哔哩哔哩_bilibili 最小二乘法 所谓最小即梯度下降要找到使得损失函数最小的参数W和 阅读全文
摘要:
正则化技术 # 1.过拟合 正则化技术用来防止过拟合。 所谓过拟合即训练过程中,训练集上的误差持续减少,而与此同时测试集上的误差增大的现象。 目标是追求模型对于没有见过的数据的预测效果(即泛化能力),而不是追求完全拟合训练数据 防止过拟合的方法 * 获取更多的数据 * 选择更合适的网络模型 * 早停 阅读全文
摘要:
[toc] * 提出ResNet模型,深度残差神经网络模型。 * 论文发表于2015年,2016年CVPR最佳论文 * 作者何恺明、孙剑、张翔宇、任少卿(微软亚洲研究院) 参考: [ResNet为什么能解决网络退化问题 - 同济子豪兄 - bilibili](https://www.bilibili 阅读全文
摘要:
参考: 【 深度学习李宏毅 】 Batch Normalization (中文)bilibili 7.5. 批量规范化 — 动手学深度学习 2.0.0 documentation (d2l.ai) 3.6 Batch Norm 为什么奏效?- 吴恩达_bilibili 《Batch Normaliz 阅读全文
摘要:
定义 union example{ struct { short int x; short int y; } in; short int a; short int b; } e; union中成员包括 结构体成员变量in{short int x; short int y} sizeof(in) = 阅读全文