摘要: 论文译文 大佬分析的原文 简洁分析 架构: 实际的VGG16(只算卷积和全连接层的个数为16) (前两组conv-relu-conv-relu-pool,中间三组conv-relu-conv-relu-conv-relu-pool,最后三个fc,前两个fc是fc-relu-dropout,最后一个f 阅读全文
posted @ 2021-07-21 22:17 ice猫猫3 阅读(165) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/m0_45962052/article/details/104849869 阅读全文
posted @ 2021-07-21 22:07 ice猫猫3 阅读(26) 评论(0) 推荐(0) 编辑
摘要: 8层(5个conv 3个fc) 绿的norm层后来证明没啥用 现在看它的conv1用的卷积核11 stride4就挺离谱的 特点: ①用的relu激活函数,成功解决了Sigmoid在网络较深时的梯度弥散问题。(虽然别人提过 略略略) 在ReLU之后会做一个normalization(没啥用 阿一古) 阅读全文
posted @ 2021-07-21 21:30 ice猫猫3 阅读(141) 评论(0) 推荐(0) 编辑
摘要: IoU 的全称为交并比(Intersection over Union) “预测的边框” 和 “真实的边框” 的交集和并集的比值。 链接 阅读全文
posted @ 2021-07-21 16:47 ice猫猫3 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 防止过拟合 除了数据增强,还有正则项/dropout等方式可以防止过拟合。 常见方法: 1)随机旋转 随机旋转一般情况下是对输入图像随机旋转[0,360) 2)随机裁剪 随机裁剪是对输入图像随机切割掉一部分 3)色彩抖动 色彩抖动指的是在颜色空间如RGB中,每个通道随机抖动一定的程度。在实际的使用中 阅读全文
posted @ 2021-07-21 11:43 ice猫猫3 阅读(253) 评论(0) 推荐(0) 编辑
摘要: 在多级前馈网当中,隐藏层的定义是:除输入层和输出层以外的其他各层叫做隐藏层。隐藏层不直接接受/接触外界的信号,也不直接向外界发送信号。 阅读全文
posted @ 2021-07-21 10:37 ice猫猫3 阅读(397) 评论(0) 推荐(0) 编辑
摘要: 不用Sigmoid,现在用relu啦 relu: Sigmoid: Sigmoid 和 Softmax 区别: 二分类问题时它们一样,而 softmax 可以用于多分类问题 阅读全文
posted @ 2021-07-21 09:58 ice猫猫3 阅读(262) 评论(0) 推荐(0) 编辑
摘要: 卷积conv 全连接fc(full connected) 不算POOLing、LRN、softmax(通常用relu的),可能是因为: 参数太少。像relu、pool这样的层参数量太少,有的甚至如激活层relu不保存中间结果直接给下一层; 计算量小。相比conv甚至fc,pool这些层的计算量太少。 阅读全文
posted @ 2021-07-21 09:46 ice猫猫3 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 一条龙服务 一个典型的机器学习构建包含若干个过程,pytorch中有好多包进行调用的吧~~~~~ 1、源数据ETL 2、数据预处理 3、特征选取 4、模型训练与验证 以上四个步骤可以抽象为一个包括多个步骤的流水线式工作,从数据收集开始至输出我们需要的最终结果。因此,对以上多个步骤、进行抽象建模,简化 阅读全文
posted @ 2021-07-21 09:40 ice猫猫3 阅读(78) 评论(0) 推荐(0) 编辑
摘要: 在别人的网络上微微改动①去尾巴,得特征,换线性分类器②去尾巴和一点卷积层,得泛化特征 以下是常见的两类迁移学习场景: 1 卷积网络当做特征提取器。 拿掉全连接层,剩余部分当做特征提取器 这样提取的特征叫做CNN codes。 再线性分类器(Liner SVM、Softmax等)来分类图像。 2 Fi 阅读全文
posted @ 2021-07-21 09:14 ice猫猫3 阅读(419) 评论(0) 推荐(0) 编辑
摘要: localization是找到某个物体的检测框 detection是找到所有物体的检测框 阅读全文
posted @ 2021-07-21 08:37 ice猫猫3 阅读(224) 评论(0) 推荐(1) 编辑