摘要: YOLOv4 YOLOv4的三大贡献: 设计了强大而高效的检测模型,任何人都可以用 1080Ti 和 2080Ti训练这个超快而精准的模型。 验证了很多近几年 SOTA 的深度学习目标检测训练技巧。 修改了很多 SOTA 的方法, 让它们对单GPU训练更加高效,例如 CmBN,PAN,SAM等。 作 阅读全文
posted @ 2021-07-06 09:08 LvJC 阅读(1485) 评论(0) 推荐(0) 编辑
摘要: VSCode扩展商店里安装Go mac的话需要给go文件夹权限,我的是:sudo chmode -R 777 /usr/local/go。如果不确定,可以用which go来查看在哪。 然后go get才能使用,可以跟随VSCode的推荐安装 阅读全文
posted @ 2021-06-22 22:39 LvJC 阅读(122) 评论(0) 推荐(0) 编辑
摘要: Test Time Augmentation What is Test Time Augmentation (TTA)? Similar to what Data Augmentation is doing to the training set, the purpose of Test Time 阅读全文
posted @ 2021-06-17 18:50 LvJC 阅读(178) 评论(0) 推荐(0) 编辑
摘要: Transformer Transformer最早在NLP领域出现。 1. Multi-head attention & Feed forward network ViT 后被引入到计算机视觉领域。最开始是ViT。 阅读全文
posted @ 2021-04-27 10:10 LvJC 阅读(330) 评论(0) 推荐(0) 编辑
摘要: 目录 man / help / info man [命令] man [数字] [命令] pwd / ls pwd是print workspace directory。 ls 常用参数有: -l 长显示 -a all,显示隐藏文件 -r 倒序 -h 文件大小显示为human readable格式,即以 阅读全文
posted @ 2021-02-12 23:16 LvJC 阅读(58) 评论(0) 推荐(0) 编辑
摘要: 目录 协程(Coroutine) asyncio模块 异步编程 uvloop 实战案例 1. 协程(Coroutine) 协程,也被称为微线程,是一种用户态内的上下文切换技术。简言之,就是通过一个线程实现代码块相互切换执行。 在Python中有多种方式可以实现协程,例如: greenlet,是一个第 阅读全文
posted @ 2021-01-22 18:06 LvJC 阅读(407) 评论(0) 推荐(0) 编辑
摘要: TL;DR Grad-CAM(Gradient-weighted Class Activation Mapping)可为基于CNN的模型的决策生成”视觉解释“。使用任何目标概念的梯度(例如“狗”甚至是字幕的logits),流入最终的卷积层,以生成一个粗略的局部化图,突出显示了图像中用于预测此概念的区 阅读全文
posted @ 2020-10-21 10:19 LvJC 阅读(717) 评论(0) 推荐(0) 编辑
摘要: 原文:https://arxiv.org/pdf/1812.01187.pdf 首先介绍一下本文构建的Baseline—— Training: 随机采样图像并将其解码为[0,255]中的32位浮点原始像素值。 随机裁剪长宽比以[3/4,4/3]随机采样的矩形区域,以[8%,100%]随机采样的区域, 阅读全文
posted @ 2020-10-12 20:39 LvJC 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 这是一篇介绍Re-ID任务的tricks和baseline的论文。有很多地方也可以被别的任务借鉴,特别是特征匹配的任务,如检索。 Baseline 我们使用ImageNet上的预训练参数初始化ResNet50,并将完全连接层的尺寸更改为N。N表示训练数据集中的身份数量。 我们随机采样P个人和每个人的 阅读全文
posted @ 2020-10-12 20:03 LvJC 阅读(567) 评论(0) 推荐(1) 编辑
摘要: 在在线数据的更新时,为了避免重新标注新增所有数据,会采用主动学习的策略。 什么是主动学习 主动学习是机器学习的一种特殊情况,其中学习算法可以交互地查询用户(或某些其他信息源),以用期望的输出标记新的数据点。在统计资料中,有时也称为最佳实验设计。信息源也称为教师或甲骨文。 在某些情况下,未标记的数据很 阅读全文
posted @ 2020-10-12 18:46 LvJC 阅读(1058) 评论(0) 推荐(1) 编辑