上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 24 下一页
摘要: 在阅读LIFT:Learned Invariant Feature Transform一文时,文中第1节提到为了保证端到端的可微性,利用softargmax来代替传统的NMS(非极大值抑制)来挑选极值点位置。由于只了解softmax,对于softargmax不甚了解,所以记录下来。 1)softma 阅读全文
posted @ 2018-11-09 22:17 三年一梦 阅读(13695) 评论(1) 推荐(4) 编辑
摘要: 这篇论文提出了一种新的局部描述子学习方法,有一些点值得学习,记录下来以供参考。文章中涉及了一些3D reconstruction、structure from 的知识,不是很了解,所以理解可能有偏颇。 一。介绍 基于网络学习的局部描述子在patch-based benchmark取得了很好的结果,但 阅读全文
posted @ 2018-10-28 10:38 三年一梦 阅读(1491) 评论(0) 推荐(0) 编辑
摘要: 近来论文看了许多,但没多少时间总结下来。今天暂时记录一篇比较旧的论文,选择理由是 Discriminative features。 做图像说白了就是希望有足够有判别性的特征,这样在分类或者匹配、检索的时候才能有较好的精度。 一. 综述 这篇论文思想很简单。如何称之为有判别性的特征?作者利用编码器的思 阅读全文
posted @ 2018-10-10 15:51 三年一梦 阅读(1024) 评论(0) 推荐(1) 编辑
摘要: (本文转自极视角) 本文由香港中文大学发表于ECCV2018,论文探索了IN和BN的优劣,据此提出的IBN-Net在语义分割的域适应任务上取得了十分显著的性能提升。 论文地址:https://arxiv.org/pdf/1807.09441 代码地址:https://github.com/Xinga 阅读全文
posted @ 2018-09-29 09:31 三年一梦 阅读(1150) 评论(0) 推荐(0) 编辑
摘要: 论文:Working hard to know your neighbor’s margins: Local descriptor learning loss 为什么介绍此文:这篇2018cvpr文章主要是从困难样本入手,提出的一个loss,简单却很有效,在图像匹配、检索、Wide baseline 阅读全文
posted @ 2018-08-31 09:32 三年一梦 阅读(8008) 评论(0) 推荐(0) 编辑
摘要: 论文Learning Spread-out Local Feature Descriptors 为什么介绍此文:引入了一种正则化手段,结合其他网络的损失函数,尤其是最新cvpr 2018的hardnet(Working hard to know your neighbor’s margins: Lo 阅读全文
posted @ 2018-08-30 09:06 三年一梦 阅读(3007) 评论(0) 推荐(0) 编辑
摘要: 解读论文:Learning Local Image Descriptors with Deep Siamese and Triplet Convolutional Networks by Minimising Global Loss Functions 为什么要总结这么一篇旧的论文?因为里面一些方法 阅读全文
posted @ 2018-08-29 15:54 三年一梦 阅读(4180) 评论(3) 推荐(0) 编辑
摘要: 深度剖析 | 可微分学习的自适配归一化 (Switchable Normalization) 作者:罗平、任家敏、彭章琳编写:吴凌云、张瑞茂、邵文琪、王新江 转自:知乎。原论文参考arXiv:1806.10779和代码Github。 导读:归一化技术已经成为深度学习系统必不可少的重要组成部分,对优化 阅读全文
posted @ 2018-08-23 11:23 三年一梦 阅读(570) 评论(0) 推荐(0) 编辑
摘要: 一. ROC曲线概念 二分类问题在机器学习中是一个很常见的问题,经常会用到。ROC (Receiver Operating Characteristic) 曲线和 AUC (Area Under the Curve) 值常被用来评价一个二值分类器 (binary classifier) 的优劣,Sk 阅读全文
posted @ 2018-08-19 16:37 三年一梦 阅读(13458) 评论(0) 推荐(0) 编辑
摘要: 1. 总述 Focal loss主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。 2. 损失函数形式 Focal loss是在交叉熵损失函数基础上进行的修改,首先回顾二分类交叉上损失: 是经过激活函数 阅读全文
posted @ 2018-08-18 19:44 三年一梦 阅读(211804) 评论(15) 推荐(33) 编辑
上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 24 下一页