哪有什么岁月静好,不过是有人替你负重前行!
摘要: 显存占用 = 模型显存占用 + batch_size × 每个样本的显存占用时间更宝贵,尽可能使模型变快(减少 flop)显存占用不是和 batch size 简单成正比,模型自身的参数及其延伸出来的数据也要占据显存batch size 越大,速度未必越快。在你充分利用计算资源的时候,加大 batc 阅读全文
posted @ 2021-12-10 21:09 Lhiker 阅读(2370) 评论(0) 推荐(0) 编辑
摘要: Swin Transformer是微软今年三月25日公布的一篇利用transformer架构处理计算机视觉任务的论文,一出即屠榜各大CV任务,地址如下: Paper:https://arxiv.org/abs/2103.14030 Code:https://github.com/microsoft/ 阅读全文
posted @ 2021-12-10 17:06 Lhiker 阅读(475) 评论(0) 推荐(0) 编辑