上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 27 下一页
摘要: 根据左图(input)输出右图(output) 语义:语音识别☞语音的意思;图像☞图像的内容,对图片意思的理解(三个人骑着三辆自行车) 分割:分割出图片中的不同对象,对原图中的每个像素都进行标注(粉红色代表人,绿色代表自行车) **应用:**卫星遥感影像、无人车、医疗影像 阅读全文
posted @ 2021-07-22 09:56 ice猫猫3 阅读(283) 评论(0) 推荐(0) 编辑
摘要: 连续乘法导致的梯度的衰减, 如果在连续乘法中出现一个非常大的值,最后计算出的梯度就会很大, 如果以这个梯度值进行更新,那么这次迭代的步长就很大,可能会一下子飞出了合理的区域。 阅读全文
posted @ 2021-07-22 09:00 ice猫猫3 阅读(124) 评论(0) 推荐(0) 编辑
摘要: 3个kernel3相当于1个kernel7的; 2个kernel3相当于1个kernel5的; 更深(特征更多 (局部最优)),非线性层越多(使决策函数更加具有辨别能力) 参数量减少3*(3C)的平方 vs (7C)的平方 计算量也减少 3×3的9个格子,最中间的格子是一个感受野中心,可以捕获上下左 阅读全文
posted @ 2021-07-22 08:53 ice猫猫3 阅读(538) 评论(0) 推荐(0) 编辑
摘要: inception模块的基本机构如下图,整个inception结构就是由多个这样的inception模块串联起来的。 主要贡献有两个: ①使用1x1的卷积来进行升降维; ②在多个尺寸上同时进行卷积再聚合。(在直观感觉上在多个尺度上同时进行卷积,能提取到不同尺度的特征。特征更为丰富也意味着最后分类判断 阅读全文
posted @ 2021-07-22 08:46 ice猫猫3 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 论文译文 大佬分析的原文 简洁分析 架构: 实际的VGG16(只算卷积和全连接层的个数为16) (前两组conv-relu-conv-relu-pool,中间三组conv-relu-conv-relu-conv-relu-pool,最后三个fc,前两个fc是fc-relu-dropout,最后一个f 阅读全文
posted @ 2021-07-21 22:17 ice猫猫3 阅读(165) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/m0_45962052/article/details/104849869 阅读全文
posted @ 2021-07-21 22:07 ice猫猫3 阅读(26) 评论(0) 推荐(0) 编辑
摘要: 8层(5个conv 3个fc) 绿的norm层后来证明没啥用 现在看它的conv1用的卷积核11 stride4就挺离谱的 特点: ①用的relu激活函数,成功解决了Sigmoid在网络较深时的梯度弥散问题。(虽然别人提过 略略略) 在ReLU之后会做一个normalization(没啥用 阿一古) 阅读全文
posted @ 2021-07-21 21:30 ice猫猫3 阅读(141) 评论(0) 推荐(0) 编辑
摘要: IoU 的全称为交并比(Intersection over Union) “预测的边框” 和 “真实的边框” 的交集和并集的比值。 链接 阅读全文
posted @ 2021-07-21 16:47 ice猫猫3 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 防止过拟合 除了数据增强,还有正则项/dropout等方式可以防止过拟合。 常见方法: 1)随机旋转 随机旋转一般情况下是对输入图像随机旋转[0,360) 2)随机裁剪 随机裁剪是对输入图像随机切割掉一部分 3)色彩抖动 色彩抖动指的是在颜色空间如RGB中,每个通道随机抖动一定的程度。在实际的使用中 阅读全文
posted @ 2021-07-21 11:43 ice猫猫3 阅读(253) 评论(0) 推荐(0) 编辑
摘要: 在多级前馈网当中,隐藏层的定义是:除输入层和输出层以外的其他各层叫做隐藏层。隐藏层不直接接受/接触外界的信号,也不直接向外界发送信号。 阅读全文
posted @ 2021-07-21 10:37 ice猫猫3 阅读(397) 评论(0) 推荐(0) 编辑
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 27 下一页