摘要: 步骤一: 找到一个CNN分类模型 步骤二: 对于这个模型修改最后的分类层,为21类,去掉最后一个全连接层 步骤三: 根据选择性搜索提取图像的候选区域(框) 对于候选框修改大小以适应CNN输入,然后得出feature map即为提取到的特征 步骤四: 训练SVM分类器,对特定敏感区域进行分类,每个类别 阅读全文
posted @ 2019-04-15 17:02 you-wh 阅读(753) 评论(0) 推荐(0) 编辑
摘要: pytorch快速加载预训练模型参数的方式 针对的预训练模型是通用的模型,也可以是自定义模型,大多是vgg16 , resnet50 , resnet101 , 等,从官网加载太慢 直接修改源码,改为本地地址 1.直接使用默认程序里的下载方式,往往比较慢; 2.通过修改源代码,使得模型加载已经下载好 阅读全文
posted @ 2019-04-15 17:02 you-wh 阅读(5312) 评论(0) 推荐(1) 编辑
摘要: 将训练好的语义分割模型保存下来,重新加载之后 通过这一个操作得到标签; 绘图的主函数在下面: 阅读全文
posted @ 2019-04-15 15:58 you-wh 阅读(2511) 评论(0) 推荐(0) 编辑
摘要: 该模块融合了4种不同金字塔尺度的特征,第一行红色是最粗糙的特征–全局池化生成单个bin输出,后面三行是不同尺度的池化特征。 为了保证全局特征的权重,如果金字塔共有N个级别,则在每个级别后使用1×1 1×11×1的卷积将对于级别通道降为原本的1/N。再通过双线性插值获得未池化前的大小,最终concat 阅读全文
posted @ 2019-04-14 11:01 you-wh 阅读(6697) 评论(4) 推荐(4) 编辑
摘要: 空间金字塔池化技术, 厉害之处,在于使得我们构建的网络,可以输入任意大小的图片,不需要经过裁剪缩放等操作。 是后续许多金字塔技术(psp,aspp等)的起源,主要的目的都是为了获取场景语境信息,获取上下文的联系。 如图所示,对于选择的不同大小的区域对应到卷积之后的特征图上,得到的也是大小不一致的特征 阅读全文
posted @ 2019-04-04 16:26 you-wh 阅读(4860) 评论(0) 推荐(2) 编辑
摘要: 1.no CUDA-capable device is detected 首先考虑的是cuda的驱动问题,查看gpu显示是否正常,然后更新最新的cuda驱动; 第二个考虑的是cuda设备的默认参数是否修改,平常一块显卡的设置是0,多块可能会修改此参数: CUDA_VISIBLE_DEVICES="3 阅读全文
posted @ 2019-03-28 16:40 you-wh 阅读(2570) 评论(0) 推荐(0) 编辑
摘要: 加入带洞卷积的resnet结构的构建,以及普通resnet如何通过模块的组合来堆砌深层卷积网络。 第一段代码为deeplab v3+(pytorch版本)中的基本模型改进版resnet的构建过程, 第二段代码为model的全部结构图示,以文字的方式表示,forward过程并未显示其中 打印出的mod 阅读全文
posted @ 2019-03-27 16:57 you-wh 阅读(2657) 评论(0) 推荐(0) 编辑
摘要: pytorch快速加载预训练模型参数的方式 https://github.com/pytorch/vision/tree/master/torchvision/models 常用预训练模型在这里面 总结下各种模型的下载地址: 1 Resnet: 2 3 model_urls = { 4 'resne 阅读全文
posted @ 2019-03-27 10:09 you-wh 阅读(46315) 评论(17) 推荐(3) 编辑
摘要: 按上面来得到的随机数不同,加上注释就会得到相同的随机数。 阅读全文
posted @ 2019-03-21 11:35 you-wh 阅读(3740) 评论(1) 推荐(0) 编辑
摘要: 为什么不进行多卡同步? BatchNorm的实现都是只考虑了single gpu。也就是说BN使用的均值和标准差是单个gpu算的,相当于缩小了mini-batch size。至于为什么这样实现,1)因为没有sync的需求,因为对于大多数vision问题,单gpu上的mini-batch已经够大了,完 阅读全文
posted @ 2019-03-21 11:28 you-wh 阅读(1121) 评论(0) 推荐(0) 编辑
Fork me on GitHub