随笔分类 -  Deep Learning

摘要:PyTorch 源码解读之 BN & SyncBN:BN 与 多卡同步 BN 详解 - 知乎 阅读全文
posted @ 2025-01-02 11:25 Picassooo 阅读(10) 评论(0) 推荐(0) 编辑
摘要:MNIST数据集下载地址:tensorflow-tutorial-samples/mnist/data_set at master · geektutu/tensorflow-tutorial-samples · GitHub 数据集存放和dataset的参数设置: 完整的MNIST分类代码: im 阅读全文
posted @ 2024-10-12 10:53 Picassooo 阅读(289) 评论(0) 推荐(0) 编辑
摘要:图解 RoIAlign 以及在 PyTorch 中的使用(含代码示例)_虾米小馄饨的博客-CSDN博客 如何在你自己的代码中使用ROI Pool和ROI Align(PyTorch 1.0)_ronghuaiyang的博客-CSDN博客 阅读全文
posted @ 2023-09-08 10:12 Picassooo 阅读(110) 评论(0) 推荐(0) 编辑
摘要:转:MMDetection目标检测框架详解,及训练自有数据集教程 阅读全文
posted @ 2023-06-12 12:20 Picassooo 阅读(125) 评论(0) 推荐(0) 编辑
摘要:slowfast复现 训练 阅读全文
posted @ 2023-03-15 11:29 Picassooo 阅读(116) 评论(0) 推荐(0) 编辑
摘要:苏剑林博客-生成扩散模型系列: 生成扩散模型漫谈(一):DDPM = 拆楼 + 建楼 生成扩散模型漫谈(二):DDPM = 自回归式VAE 生成扩散模型漫谈(三):DDPM = 贝叶斯 + 去噪 (推荐,建议直接看这一篇) 生成扩散模型漫谈(四):DDIM = 高观点DDPM 生成扩散模型漫谈(五) 阅读全文
posted @ 2023-02-20 10:41 Picassooo 阅读(954) 评论(0) 推荐(0) 编辑
摘要:神经网络复杂度分析,FLOPs,MAC,卷积层参数量,BN层参数量,双精度,单精度,半精度 阅读全文
posted @ 2022-11-25 09:48 Picassooo 阅读(186) 评论(0) 推荐(0) 编辑
摘要:深度学习编译技术的现状和未来 (陈天奇) 深度学习编译技术的一些思考(五) 深度学习编译技术的一些思考(六) 阅读全文
posted @ 2022-10-10 10:55 Picassooo 阅读(31) 评论(0) 推荐(0) 编辑
摘要:自动驾驶行为预测综述(一) 自动驾驶近期行为预测和规划的一些文章介绍(上) 行人的行为意图建模和预测(下) 阅读全文
posted @ 2022-10-09 16:33 Picassooo 阅读(65) 评论(0) 推荐(0) 编辑
摘要:知乎:介绍几篇incremental/continual/lifelong learning的综述论文 知乎:continual learning summary (稍差) 增量学习小综述 一文带你详尽 Lifelong Learning —— 终生学习 中文论文:连续学习研究进展 IROS 201 阅读全文
posted @ 2022-10-05 10:38 Picassooo 阅读(1337) 评论(1) 推荐(1) 编辑
摘要:MAE的网络结构如上图所示,它是一个非对称的Encoder-Decoder架构的模型,非对称性主要体现在两点: 1. Encoder和Decoder都是Transformer结构,但是Decoder在深度和宽度上都比Encoder小很多; 2. Encoder仅将未被掩码的部分作为输入,而Decod 阅读全文
posted @ 2022-09-27 11:27 Picassooo 阅读(775) 评论(0) 推荐(0) 编辑
摘要:transformer综述汇总与变形分析 (这个汇总记录了多篇transformer综述,写的很好,推荐) 下面的一个related work总结也写的很好,摘自:PVTv2: Improved Baselines with Pyramid Vision Transformer 阅读全文
posted @ 2022-09-26 21:57 Picassooo 阅读(97) 评论(0) 推荐(0) 编辑
摘要:论文标题:Swin Transformer: Hierarchical Vision Transformer using ShiftedWindows swin transformer的主要有特点有三个: 第一,把图像划分为一个个窗口,只在窗口内部计算self-attention。这样带来的优势是, 阅读全文
posted @ 2022-09-24 15:23 Picassooo 阅读(228) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示