上一页 1 2 3 4 5 6 ··· 64 下一页
摘要: DeepFM: A Factorization-Machine based Neural Network for CTR Prediction Abstract 了解用户行为背后复杂的特征交互对于提高推荐系统的点击率(CTR)至关重要。尽管有了很大的进步,现有的方法似乎对低阶或高阶交互有强烈的bia 阅读全文
posted @ 2021-09-10 14:17 慢行厚积 阅读(408) 评论(0) 推荐(0) 编辑
摘要: 原来机器上有安装一个cuda 10.0,想要再安装一个cuda 10.1 安装CUDA 1.首先下载.run文件 https://developer.nvidia.com/cuda-10.1-download-archive-base?target_os=Linux&target_arch=x86_ 阅读全文
posted @ 2021-07-05 19:47 慢行厚积 阅读(2128) 评论(0) 推荐(0) 编辑
摘要: 因为没有安装nccl,本机为centos7 https://developer.nvidia.com/nccl/nccl-legacy-downloads 需要登录一下 得到nccl-repo-rhel7-2.7.8-ga-cuda10.1-1-1.x86_64.rpm 安装教程 :https:// 阅读全文
posted @ 2021-07-05 19:35 慢行厚积 阅读(3310) 评论(1) 推荐(0) 编辑
摘要: Group-CAM: Group Score-Weighted Visual Explanations for Deep Convolutional Networks Abstract 最近,深度卷积神经网络的解释引起了越来越多的关注,因为它有助于理解网络的内部机制和网络做出特定决策的原因。在计算机 阅读全文
posted @ 2021-06-30 16:55 慢行厚积 阅读(1712) 评论(0) 推荐(0) 编辑
摘要: RepMLP: Re-parameterizing Convolutions into Fully-connected Layers for Image Recognition Abstract 我们提出了RepMLP,一个多层感知器风格的图像识别神经网络构建块,它由一系列全连接(FC)层组成。与卷 阅读全文
posted @ 2021-06-25 10:25 慢行厚积 阅读(1052) 评论(0) 推荐(0) 编辑
摘要: Do You Even Need Attention? A Stack of Feed-Forward Layers Does Surprisingly Well on ImageNet Abstract 视觉transformers在图像分类和其他视觉任务上的强大性能通常归因于其multi-hea 阅读全文
posted @ 2021-06-17 10:39 慢行厚积 阅读(296) 评论(0) 推荐(0) 编辑
摘要: Beyond Self-attention: External Attention using Two Linear Layers for Visual Tasks Abstract 注意力机制,尤其是自注意力(self-attention),在视觉任务的深度特征表征中起着越来越重要的作用。自注意力 阅读全文
posted @ 2021-06-17 10:37 慢行厚积 阅读(1377) 评论(0) 推荐(0) 编辑
摘要: 当报类似下面的错误时: ERROR: mxnet_cu100-1.8.0.post0-py2.py3-none-manylinux2014_x86_64.whl is not a supported wheel on this platform 可使用下面的命令去查看pip支持下载的版本: >>> 阅读全文
posted @ 2021-06-15 16:20 慢行厚积 阅读(628) 评论(0) 推荐(0) 编辑
摘要: Rethinking “Batch” in BatchNorm Abstract BatchNorm是现代卷积神经网络的重要组成部分。它对“batches”而不是单个样本进行操作的独特特性,引入了与深度学习中大多数其他操作显著不同的行为。因此,它会导致许多隐藏的警告,可能以微妙的方式对模型的性能产生 阅读全文
posted @ 2021-06-04 11:45 慢行厚积 阅读(975) 评论(0) 推荐(1) 编辑
摘要: What Deep CNNs Benefit from Global Covariance Pooling: An Optimization Perspective Abstract 最近的研究表明,全局协方差池化(global covariance pooling, GCP)能够提高深度卷积神经网 阅读全文
posted @ 2021-06-01 16:03 慢行厚积 阅读(942) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 64 下一页