Loading

摘要: 看了论文,我一直对于1X1卷积核不理解,因为它看起来只是将原来的矩阵分别乘了一个数,原来的矩阵并没有变化 看了一篇博文以后,理解了1X1卷积核的意义 其实1x1卷积,可以看成一种全连接(full connection)。例如, 第一层有6个神经元,分别是a1—a6,通过全连接之后变成5个,分别是b1 阅读全文
posted @ 2020-11-12 23:35 kyshan 阅读(458) 评论(0) 推荐(0) 编辑
摘要: 论文链接:https://arxiv.org/pdf/1707.01083.pdf (瓶颈单元:先1x1卷积降维,再3x3卷积,再1x1卷积升维) shufflenet提出使用逐点分组卷积以减少1×1卷积的计算复杂度的方法。 为了克服组卷积带来的副作用,采用了一种新颖的通道混洗操作,以帮助信息流过特 阅读全文
posted @ 2020-11-12 23:13 kyshan 阅读(117) 评论(0) 推荐(0) 编辑
摘要: 论文网址:https://arxiv.org/abs/1704.04861 mobilenet主要工作是用depthwise sparable convolutions替代过去的standard convolutions来解决卷积网络的计算效率和参数量的问题。 在该方法中,把标准卷积分为了 深度卷积 阅读全文
posted @ 2020-11-12 21:32 kyshan 阅读(95) 评论(0) 推荐(0) 编辑