摘要: SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size 论文地址: Arxiv Paper Github: Caffe 设计理念: 使用1x1 conv 替换 3x3 conv 1x1con 阅读全文
posted @ 2018-04-21 21:13 Fighting-Lady 阅读(1283) 评论(0) 推荐(0) 编辑
摘要: ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices 论文地址:Arxiv Paper GitHub: Tensorflow, Caffe 主要是在Xception的基础上进一步改进 Mo 阅读全文
posted @ 2018-04-21 21:10 Fighting-Lady 阅读(981) 评论(0) 推荐(0) 编辑
摘要: Xception: Deep Learning with Depthwise Separable Convolutions 论文地址: Arxiv Paper Xception 属于google Inception家族中的一员,演变过来的 Google Net Inception V3 输入input通过四个path,最后concat得到output 简化后... 阅读全文
posted @ 2018-04-21 21:08 Fighting-Lady 阅读(303) 评论(0) 推荐(0) 编辑
摘要: MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications 论文地址: Arxiv Paper Github: Tensorflow, Caffe Related work 构建小的、高效网络的 阅读全文
posted @ 2018-04-21 21:06 Fighting-Lady 阅读(605) 评论(0) 推荐(0) 编辑
摘要: 模型压缩出了一系列文章,包括 MobileNet,Xception,ShuffleNet,SqueezeNet等,对相关论文进行阅读与总结。 CNN模型设计研究点 模型压缩: 对pre-trained的模型进行压缩,使其变成小模型,如采用网络剪枝和量化等 layer优化: 采用1x1的小卷积核,可分 阅读全文
posted @ 2018-04-21 21:00 Fighting-Lady 阅读(186) 评论(0) 推荐(0) 编辑