摘要:
一直以来都是在OneNote上做笔记,但是无奈OneNote只能在windows下使用,为了不受操作系统的限制,同时为了与同行交流向各位高手学习,在此开通blog记录学习工作点滴。 参考了很多前人的理解与总结的内容,如未引用相关文献,或者有侵权,请指出,立即修改或删除。 阅读全文
摘要:
SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size 论文地址: Arxiv Paper Github: Caffe 设计理念: 使用1x1 conv 替换 3x3 conv 1x1con 阅读全文
摘要:
ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices 论文地址:Arxiv Paper GitHub: Tensorflow, Caffe 主要是在Xception的基础上进一步改进 Mo 阅读全文
摘要:
Xception: Deep Learning with Depthwise Separable Convolutions 论文地址: Arxiv Paper Xception 属于google Inception家族中的一员,演变过来的 Google Net Inception V3 输入input通过四个path,最后concat得到output 简化后... 阅读全文
摘要:
MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications 论文地址: Arxiv Paper Github: Tensorflow, Caffe Related work 构建小的、高效网络的 阅读全文
摘要:
模型压缩出了一系列文章,包括 MobileNet,Xception,ShuffleNet,SqueezeNet等,对相关论文进行阅读与总结。 CNN模型设计研究点 模型压缩: 对pre-trained的模型进行压缩,使其变成小模型,如采用网络剪枝和量化等 layer优化: 采用1x1的小卷积核,可分 阅读全文
摘要:
项目主页: https://eliasvansteenkiste.github.io/machine%20learning/lung-cancer-pred/ github主页: https://github.com/EliasVansteenkiste/dsb3 阿里论坛翻译主页: https://tianchi.aliyun.com/competition/new_a... 阅读全文
摘要:
(1) 与VGG同在2014年出现,取得了ILSVRC 2014比赛第一名。 (2) Inception V1有22层深,控制参数量的同时提高性能。控制参数量的原因: 参数越多模型越庞大,需要供模型学习的数据量就越大,而目前高质量的数据非常昂贵 参数越多,耗费的计算资源也会更大。 (3) 参数少、模 阅读全文
摘要:
ResNet: (1) 152层网络,ILSVRC2015比赛第一名 (2) Highway Network: 神经网络的深度对其性能非常重要,但是网络越深训练难度越大,Highway NetWork允许的目标就是解决极深的神经网络难以训练的问题。 Highway Network相当于修改了每一层的 阅读全文
摘要:
U-net:Convolutional Networks for Biomedical Image Segmentation 阅读全文
摘要:
VGGNet: (1) 牛津大学计算机视觉组(Visual Geometry Group)和GoogleDeepMind公司的研究员一起研发的 (2)探索了卷积神经网络的深度与其性能之间的关系,反复读碟3*3的小型卷积核和2*2的最大池化层,16-19层深的卷积神经网络 (3)取得了ILSVRC20 阅读全文