摘要: ①relu角度 有点类似传统特征工程中,已有的特征在固定的模型下没有性能提升了,那就用更多的非线性变换对已有的特征去做变换,产生更多的特征的意味; 多出的relu对网络中层进一步压榨提炼特征。结合一开始单张 feature map 的 local 信息更多一些,还没来得及把信息分摊到 channel 阅读全文
posted @ 2021-07-26 16:33 ice猫猫3 阅读(293) 评论(0) 推荐(0) 编辑
摘要: 前面的5组pooling层: feature map 的** width 和 height** 随着每个pool操作缩小50%,5个pool 操作使得 width 和 height 逐渐变化:224->112->56->28->14->7, 但是深度depth(或说是channel数),随着5组卷积 阅读全文
posted @ 2021-07-26 11:10 ice猫猫3 阅读(575) 评论(0) 推荐(0) 编辑
摘要: filter 1×1(源自Network in Network ), ①输入输出channel数相同,可以看作是输入的线性变换,但是增加了非线性(∵后面跟着的relu层) ②对feature map降维/升维(∵输出的channel数=核数) 对 feature map 的channel级别降维或升 阅读全文
posted @ 2021-07-26 10:03 ice猫猫3 阅读(288) 评论(0) 推荐(0) 编辑