随笔分类 - Deep Learning
摘要:PyTorch 源码解读之 BN & SyncBN:BN 与 多卡同步 BN 详解 - 知乎
阅读全文
摘要:MNIST数据集下载地址:tensorflow-tutorial-samples/mnist/data_set at master · geektutu/tensorflow-tutorial-samples · GitHub 数据集存放和dataset的参数设置: 完整的MNIST分类代码: im
阅读全文
摘要:图解 RoIAlign 以及在 PyTorch 中的使用(含代码示例)_虾米小馄饨的博客-CSDN博客 如何在你自己的代码中使用ROI Pool和ROI Align(PyTorch 1.0)_ronghuaiyang的博客-CSDN博客
阅读全文
摘要:转:MMDetection目标检测框架详解,及训练自有数据集教程
阅读全文
摘要:苏剑林博客-生成扩散模型系列: 生成扩散模型漫谈(一):DDPM = 拆楼 + 建楼 生成扩散模型漫谈(二):DDPM = 自回归式VAE 生成扩散模型漫谈(三):DDPM = 贝叶斯 + 去噪 (推荐,建议直接看这一篇) 生成扩散模型漫谈(四):DDIM = 高观点DDPM 生成扩散模型漫谈(五)
阅读全文
摘要:神经网络复杂度分析,FLOPs,MAC,卷积层参数量,BN层参数量,双精度,单精度,半精度
阅读全文
摘要:深度学习编译技术的现状和未来 (陈天奇) 深度学习编译技术的一些思考(五) 深度学习编译技术的一些思考(六)
阅读全文
摘要:自动驾驶行为预测综述(一) 自动驾驶近期行为预测和规划的一些文章介绍(上) 行人的行为意图建模和预测(下)
阅读全文
摘要:知乎:介绍几篇incremental/continual/lifelong learning的综述论文 知乎:continual learning summary (稍差) 增量学习小综述 一文带你详尽 Lifelong Learning —— 终生学习 中文论文:连续学习研究进展 IROS 201
阅读全文
摘要:MAE的网络结构如上图所示,它是一个非对称的Encoder-Decoder架构的模型,非对称性主要体现在两点: 1. Encoder和Decoder都是Transformer结构,但是Decoder在深度和宽度上都比Encoder小很多; 2. Encoder仅将未被掩码的部分作为输入,而Decod
阅读全文
摘要:transformer综述汇总与变形分析 (这个汇总记录了多篇transformer综述,写的很好,推荐) 下面的一个related work总结也写的很好,摘自:PVTv2: Improved Baselines with Pyramid Vision Transformer
阅读全文
摘要:论文标题:Swin Transformer: Hierarchical Vision Transformer using ShiftedWindows swin transformer的主要有特点有三个: 第一,把图像划分为一个个窗口,只在窗口内部计算self-attention。这样带来的优势是,
阅读全文