文章分类 -  论文翻译

摘要:摘要:众所周知,深度神经网络的成功训练离不开大量的标注样本。在本文中,我们提出了一种网络和训练策略,该策略依赖于强大的数据增强来更有效地使用现有的标注样本。本文的网络架构由捕捉上下文的收缩路径和实现精确定位的对称扩展路径组成。我们证明了,这样的网络能够使用极少的图像进行端到端的训练,并且优于之前的 阅读全文
posted @ 2021-12-25 20:05 GShang 阅读(496) 评论(0) 推荐(0) 编辑
摘要:摘要 卷积神经网络建立在卷积运算的基础上,通过融合局部感受野内的空间信息和通道信息来提取信息特征。为了提高网络的表示能力,许多现有的工作已经显示出增强空间编码的好处。在这项工作中,我们专注于通道,并提出了一种新颖的架构单元,我们称之为“Squeeze-and-Excitation”(SE)块,通过显 阅读全文
posted @ 2021-01-03 15:39 GShang 阅读(337) 评论(0) 推荐(0) 编辑
摘要:【GoogLeNet】Going Deeper with Convolutions摘要 我们在ImageNet大规模视觉识别挑战赛2014(ILSVRC14)上提出了一种代号为Inception的深度卷积神经网络结构,并在分类和检测上取得了新的最好结果。这个架构的主要特点是提高了网络内部计算资源的利用率。通过精心的手工设计,我们在增加了网络深度和广度的同时保持了计算预算不变。为了 阅读全文
posted @ 2020-12-10 20:33 GShang 阅读(87) 评论(0) 推荐(0) 编辑
摘要:【ResNet】Deep Residual Learning for Image Recognition摘要 更深的神经网络更难训练。我们提出了一种残差学习框架来减轻网络训练,这些网络比以前使用的网络更深。我们明确地将层变为学习关于层输入的残差函数,而不是学习未参考的函数。我们提供了全面的经验证据说明这些残差网络很容易优化,并可以显著增加深度来提高准确性。在ImageNet数据集上我们评估了深度高达1 阅读全文
posted @ 2020-12-10 20:25 GShang 阅读(184) 评论(0) 推荐(0) 编辑
摘要:【VGG】Very Deep Convolutional Networks for Large-Scale Image Recognition摘要 在这项工作中,我们研究了卷积网络深度在大规模的图像识别环境下对准确性的影响。我们的主要贡献是使用非常小的(3×3)卷积滤波器架构对网络深度的增加进行了全面评估,这表明通过将深度推到16-19加权层可以实现对现有技术配置的显著改进。这些发现是我们的ImageNet Challenge 2014提 阅读全文
posted @ 2020-12-10 20:22 GShang 阅读(444) 评论(0) 推荐(0) 编辑
摘要:【AlexNet】ImageNet Classification with Deep Convolutional Neural Networks摘要 我们训练了一个大型深度卷积神经网络来将ImageNet LSVRC-2010竞赛的120万高分辨率的图像分到1000不同的类别中。在测试数据上,我们得到了top-1 37.5%, top-5 17.0%的错误率,这个结果比目前的最好结果好很多。这个神经网络有6000万参数和650000个神经元 阅读全文
posted @ 2020-12-10 20:18 GShang 阅读(145) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示