摘要: https://www.cnblogs.com/liaohuiqiang/p/9226335.html 阅读全文
posted @ 2019-11-24 20:32 拎壶冲AR 阅读(124) 评论(0) 推荐(0) 编辑
摘要: 同样来自中山大学Weishi Zheng老师组的一篇unsupervised person reid,但这篇不是domain adaption,而是只有unlabeled data。 PCB等监督模型的出现表明分块对于行人重识别的有效性。因此这篇文章利用分块的思想解决非监督问题上。 整个模型如上图: 阅读全文
posted @ 2019-11-24 17:10 拎壶冲AR 阅读(1089) 评论(0) 推荐(0) 编辑
摘要: 很好的一篇文章,不愧是reid大组中山大学Weishi-Zheng老师的工作 文章的基本出发点很有意思:用source domain的feature做作为参考,衡量target domain images是否相似,从而构成正负样本进行contrasive learning和domain adapti 阅读全文
posted @ 2019-11-23 20:57 拎壶冲AR 阅读(1046) 评论(0) 推荐(0) 编辑
摘要: 1. NLP 自然语言处理中的自注意力机制(Self-attention Mechanism) Self Attention需要掌握的基本原理 2. CV 【AI不惑境】计算机视觉中注意力机制原理及其模型发展和应用 Spatial Attention Channel Attention: SENet 阅读全文
posted @ 2019-11-19 20:26 拎壶冲AR 阅读(186) 评论(0) 推荐(0) 编辑
摘要: 昨天Ke Kiaming大神的新文章 MoCo问世,reID中的contrastive loss逐渐往上游影响。自己对这一块一直没有一个总结梳理,趁着学习这篇文章的机会整理一下,挖个坑慢慢填 Distance metric learning aims to learn an embedding re 阅读全文
posted @ 2019-11-17 15:41 拎壶冲AR 阅读(1626) 评论(0) 推荐(0) 编辑
摘要: python 端扩展 pytorch 版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。本文链接: https://blog.csdn.net/u012436149/article/details/78829329 PyTorch 如何自定义 M 阅读全文
posted @ 2019-08-28 14:52 拎壶冲AR 阅读(912) 评论(0) 推荐(0) 编辑
摘要: 转载 https://www.jianshu.com/p/3eaa970bd45c 阅读全文
posted @ 2019-08-22 17:44 拎壶冲AR 阅读(728) 评论(0) 推荐(0) 编辑
摘要: train loss 与 test loss 结果分析: train loss 不断下降,test loss不断下降,说明网络仍在学习; train loss 不断下降,test loss趋于不变,说明网络过拟合; train loss 趋于不变,test loss不断下降,说明数据集100%有问题 阅读全文
posted @ 2019-08-14 19:38 拎壶冲AR 阅读(2789) 评论(0) 推荐(0) 编辑
摘要: You can always leverage the fact that nan != nan: With pytorch 0.4 there is also torch.isnan: 阅读全文
posted @ 2019-08-12 21:29 拎壶冲AR 阅读(18915) 评论(0) 推荐(3) 编辑
摘要: Unsupervised Person Reid (UDA)的预设条件: Source domain的图像带标签(人的id) Target domain图像不带id标签,但是带camera的信息 基本思路:利用source domain和target domain进行混合训练,以进行domain a 阅读全文
posted @ 2019-08-09 16:16 拎壶冲AR 阅读(441) 评论(0) 推荐(0) 编辑