08 2018 档案

摘要:论文:Working hard to know your neighbor’s margins: Local descriptor learning loss 为什么介绍此文:这篇2018cvpr文章主要是从困难样本入手,提出的一个loss,简单却很有效,在图像匹配、检索、Wide baseline 阅读全文
posted @ 2018-08-31 09:32 三年一梦 阅读(8130) 评论(0) 推荐(0) 编辑
摘要:论文Learning Spread-out Local Feature Descriptors 为什么介绍此文:引入了一种正则化手段,结合其他网络的损失函数,尤其是最新cvpr 2018的hardnet(Working hard to know your neighbor’s margins: Lo 阅读全文
posted @ 2018-08-30 09:06 三年一梦 阅读(3040) 评论(0) 推荐(0) 编辑
摘要:解读论文:Learning Local Image Descriptors with Deep Siamese and Triplet Convolutional Networks by Minimising Global Loss Functions 为什么要总结这么一篇旧的论文?因为里面一些方法 阅读全文
posted @ 2018-08-29 15:54 三年一梦 阅读(4242) 评论(3) 推荐(0) 编辑
摘要:深度剖析 | 可微分学习的自适配归一化 (Switchable Normalization) 作者:罗平、任家敏、彭章琳编写:吴凌云、张瑞茂、邵文琪、王新江 转自:知乎。原论文参考arXiv:1806.10779和代码Github。 导读:归一化技术已经成为深度学习系统必不可少的重要组成部分,对优化 阅读全文
posted @ 2018-08-23 11:23 三年一梦 阅读(596) 评论(0) 推荐(0) 编辑
摘要:一. ROC曲线概念 二分类问题在机器学习中是一个很常见的问题,经常会用到。ROC (Receiver Operating Characteristic) 曲线和 AUC (Area Under the Curve) 值常被用来评价一个二值分类器 (binary classifier) 的优劣,Sk 阅读全文
posted @ 2018-08-19 16:37 三年一梦 阅读(13506) 评论(0) 推荐(0) 编辑
摘要:1. 总述 Focal loss主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。 2. 损失函数形式 Focal loss是在交叉熵损失函数基础上进行的修改,首先回顾二分类交叉上损失: 是经过激活函数 阅读全文
posted @ 2018-08-18 19:44 三年一梦 阅读(212348) 评论(15) 推荐(34) 编辑

点击右上角即可分享
微信分享提示