摘要:
deeplab系列总结(deeplab v1& v2 & v3 & v3+) Deeplab v1&v2paper: deeplab v1 && deeplab v2 远古版本的deeplab系列,就像RCNN一样,其实了解了后面的v3和v3+就可以不太管这些了(个人拙见)。但是为了完整性和连贯性, 阅读全文
摘要:
为什么CNN中的卷积核一般都是奇数 为什么CNN中的卷积核一般都是奇奇数*奇数,没有偶数*偶数的? 咱们经常见到的多为 3 * 3、5*5;怎么从来没有见过 4*4,6*6 之类的卷积核?无论奇数 or 偶数,都是能够做卷积的呀 之前学习的时候真的没有想过这些问题,再复习时,觉得全是 Why?说明之 阅读全文
摘要:
深入理解卷积与模型大小问题,解决显存不足 在训练自己的模型时常常出现显存不足等问题,这个时候我们常用的方法就是调参。一般常用的方法有以下几点: 模型压缩网络参数调整, 比如减小训练图像大小,降低FC output个数,使用小的conv kernel size等。深度学习框架调整减层但是对于既定网络, 阅读全文
摘要:
inception-v1,v2,v3,v4 论文笔记inception的四篇论文地址: Going deeper with convolutions:https://arxiv.org/pdf/1409.4842.pdf Batch Normalization: https://arxiv.org/ 阅读全文