摘要: 未训练: > Recall@1: 0.3371 > Recall@5: 0.5641 > Recall@10: 0.6631 > Recall@20: 0.7547 维度512第一次训练 > Recall@1: 0.6359 > Recall@5: 0.8219 > Recall@10: 0.879 阅读全文
posted @ 2022-07-18 18:01 小咸鱼在看博客 阅读(48) 评论(0) 推荐(0) 编辑
摘要: 一、特征层可视化 神一般的开源代码:https://github.com/utkuozbulak/pytorch-cnn-visualizations layer_cam:http://mmcheng.net/mftp/Papers/21TIP_LayerCAM.pdf 二、Matching 1、A 阅读全文
posted @ 2022-07-16 16:19 小咸鱼在看博客 阅读(108) 评论(0) 推荐(0) 编辑
摘要: 一、Mobile-netv2 1、池化层后: 使用预训练网络的结果为: > Recall@1: 0.5134 > Recall@5: 0.7588 > Recall@10: 0.8370 > Recall@20: 0.8975 2、删除1280层: 删除掉最后一层conv,即encoder_dim变 阅读全文
posted @ 2022-06-13 09:34 小咸鱼在看博客 阅读(52) 评论(0) 推荐(0) 编辑
摘要: 纯VLAD复现 1、NetVLAD 2022/5/11 作者给出的checkpoint 测试集 > Recall@1: 0.8190 > Recall@5: 0.9123 > Recall@10: 0.9366 > Recall@20: 0.9575 另一次测试居然效果更高了: > Recall@1 阅读全文
posted @ 2022-05-11 15:00 小咸鱼在看博客 阅读(430) 评论(1) 推荐(0) 编辑
摘要: 1、明明包含了头文件,但是显示类未定义 参考:https://www.i4k.xyz/article/Fawkess/102748851 需要重新强调一下class 阅读全文
posted @ 2022-05-09 20:34 小咸鱼在看博客 阅读(25) 评论(0) 推荐(0) 编辑
摘要: TV实验 一、训练集: epoch18: > Recall@1: 0.2569 > Recall@5: 0.4335 > Recall@10: 0.5194 > Recall@20: 0.6162 epoch22: > Recall@1: 0.3084 > Recall@5: 0.5058 > Re 阅读全文
posted @ 2022-05-08 13:34 小咸鱼在看博客 阅读(39) 评论(0) 推荐(0) 编辑
摘要: 一、开启及测试 谷歌云:https://drive.google.com/drive/ 参考:https://zhuanlan.zhihu.com/p/54389036 首先新建-更多-CoLab,然后蹦出CoLab界面 !/opt/bin/nvidia-smi 测试当前状态 还可以参考:https 阅读全文
posted @ 2022-04-20 21:55 小咸鱼在看博客 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 一、常见语句 参考:https://zhuanlan.zhihu.com/p/76255917 1、torch.cumsum 按dim逐级求和,积分操作 参考:https://blog.csdn.net/songxiaolingbaobao/article/details/114580364 2、t 阅读全文
posted @ 2022-04-02 14:34 小咸鱼在看博客 阅读(203) 评论(0) 推荐(0) 编辑
摘要: 一、参数加载 1、不能识别的指定 输错了,或者当前运行的程序不在工程目录下,工程目录名称:PATCHNETVLAD_ROOT_DIR 2、未定义错误 一个奇怪的错误,在name='main'中的定义,可以直接等同于全局然后在所有函数里用 但是如果是一个函数索引另一个,就不行 二、Pycharm相关 阅读全文
posted @ 2022-03-31 15:02 小咸鱼在看博客 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 一、特殊符号表 (50条消息) LaTex常用特殊符号对应表_caiandyong的博客-CSDN博客_latex符号表 阅读全文
posted @ 2022-03-30 22:47 小咸鱼在看博客 阅读(22) 评论(0) 推荐(0) 编辑