摘要:
导言: 在CV很多方向所谓改进模型,改进网络,都是在按照人的主观思想在改进,常常在说CNN的本质是提取特征,但并不知道它提取了什么特征,哪些区域对于识别真正起作用,也不知道网络是根据什么得出了分类结果。 如在上次解读的一篇论文《Feature Pyramid Transformer》(简称FPT)中 阅读全文
摘要:
本文来源于公众号《CV技术指南》的技术总结部分,更多相关技术总结请扫描文末二维码关注公众号。 导言: 池化是一个几乎所有做深度学习的人都了解的一个技术,大家对池化如何进行前向传播也都了解,池化的作用也了解一二。然而,池化如何回传梯度呢,池化回传梯度的原则是什么呢,最大池化与平均池化的区别是什么呢,什 阅读全文
摘要:
导言: 前面我们介绍了transformer的结构,这一篇是将transformer思想用于CV中的论文,创新点不多,值得写的地方也不多,但还是决定写一下,因为这篇论文可以用来给大家看看transformer用于CV会起到一些什么样的作用,以及transformer可以怎样用于CV中。 介绍tran 阅读全文
摘要:
导言: 本文介绍了一个在空间和尺度上全活跃特征交互(fully active feature interaction across both space and scales)的特征金字塔transformer模型,简称FPT。该模型将transformer和Feature Pyramid结合,可用 阅读全文
摘要:
前几日,华为诺亚,北京大学,悉尼大学共同发表了论文《A Survey on Visual Transformer》,本文针对其重点内容进行翻译概括如下。文末附论文原文和本文完整版下载方式。 导言: Transformer是一种主要基于自注意力机制的深度神经网络,最初是在自然语言处理领域中应用的。受到 阅读全文
摘要:
导言: transformer在这两年大火,CV界广泛应用transformer模型,充分吸收其idea到自己的领域。考虑到transformer本是应用于NLP的论文,其中很多内容都形成了共识,因此在论文中并未提及,就好像CV中论文提到图像预处理使用center crop , color jitt 阅读全文
摘要:
导言: 传统的卷积网络在一个前向过程中每层只有一个连接,ResNet增加了残差连接从而增加了信息从一层到下一层的流动。FractalNets重复组合几个有不同卷积块数量的并行层序列,增加名义上的深度,却保持着网络前向传播短的路径。相类似的操作还有Stochastic depth和Highway Ne 阅读全文
摘要:
Inception系列之Inception_v1 MobileNet系列之MobileNet_v2 MobileNet系列之MobileNet_v3 引言: Inception_v2和Inception_v3是在同一篇论文中,提出BN的论文并不是Inception_v2。两者的区别在于《Rethin 阅读全文
摘要:
MobileNet系列之MobileNet_v1 MobileNet系列之MobileNet_v2 导言: 继MobileNet_v1和v2提出后,在2019年,MobileNet_v3在众人的期盼下出来了,MobileNet_v3论文提出了两个模型,MobileNet_v3-Large和Mobil 阅读全文
摘要:
ShuffleNet系列之ShuffleNet_v1 MobileNet系列之MobileNet_v2 Inception系列之Batch-Normalization 导言: 目前一些网络模型如MobileNet_v1, v2,ShuffleNet_v1, Xception采用了分组卷积,深度可分离 阅读全文