08 2018 档案
摘要:论文:Working hard to know your neighbor’s margins: Local descriptor learning loss 为什么介绍此文:这篇2018cvpr文章主要是从困难样本入手,提出的一个loss,简单却很有效,在图像匹配、检索、Wide baseline
阅读全文
摘要:论文Learning Spread-out Local Feature Descriptors 为什么介绍此文:引入了一种正则化手段,结合其他网络的损失函数,尤其是最新cvpr 2018的hardnet(Working hard to know your neighbor’s margins: Lo
阅读全文
摘要:解读论文:Learning Local Image Descriptors with Deep Siamese and Triplet Convolutional Networks by Minimising Global Loss Functions 为什么要总结这么一篇旧的论文?因为里面一些方法
阅读全文
摘要:深度剖析 | 可微分学习的自适配归一化 (Switchable Normalization) 作者:罗平、任家敏、彭章琳编写:吴凌云、张瑞茂、邵文琪、王新江 转自:知乎。原论文参考arXiv:1806.10779和代码Github。 导读:归一化技术已经成为深度学习系统必不可少的重要组成部分,对优化
阅读全文
摘要:一. ROC曲线概念 二分类问题在机器学习中是一个很常见的问题,经常会用到。ROC (Receiver Operating Characteristic) 曲线和 AUC (Area Under the Curve) 值常被用来评价一个二值分类器 (binary classifier) 的优劣,Sk
阅读全文
摘要:1. 总述 Focal loss主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。 2. 损失函数形式 Focal loss是在交叉熵损失函数基础上进行的修改,首先回顾二分类交叉上损失: 是经过激活函数
阅读全文