随笔分类 - Deep Learning
摘要:1、什么是 softmax机器学习总归是要接触到 softmax 的,那么这个东东倒底是怎么来的呢?实际上 softmax 可能指两种相似但不相同的东东。1.1. softmax function这函数定义比较符合 softmax 这个名字:可见 softmax function 是从一个输入序列里算出一个值。可见 softmax 确实会返回输入序列中最大的那个值的近似值。softmax 是对真 ...
阅读全文
摘要:人有悲欢离合,月有阴晴圆缺。中秋佳节,为大家奉上一篇关于目标检测中“阴晴圆缺”不平衡的综述:Imbalance Problems in Object Detection: A Review (https://arxiv.org/abs/1909.00169, under review at TPAMI),同时也结合自己最近在这方面的 Tech Report: Is Sampling Heurist...
阅读全文
摘要:Sometimes CUDA program crashed during execution, before memory was flushed. As a result, device memory remained occupied. There are some solutions: 1.
阅读全文
摘要:Paper:https://arxiv.org/abs/1711.07971v1 Author:Xiaolong Wang, Ross Girshick, Abhinav Gupta, Kaiming He (CMU, FAIR) 1 创新点 这篇文章非常重要,个人认为应该算是cv领域里面的自注意力
阅读全文
摘要:In everyday data processing for Machine Learning and Data Science projects, we encounter unique situations, those require boilerplate code to solve th
阅读全文
摘要:In this post, I review the literature on semantic segmentation. Most research on semantic segmentation use natural/real world image datasets. Although the results are not directly applicable to medica...
阅读全文
摘要:Dice Similarity Coefficent vs. IoU Several readers emailed regarding the segmentation performance of the FCN-8s model I trained in Chapter Four. Speci
阅读全文
摘要:Test with: Keras: 2.2.4Python: 3.6.9Tensorflow: 1.12.0 Problem: Using code from https://github.com/matterport/Mask_RCNN When setting GPU_COUNT > 1 enc
阅读全文
摘要:Back in November, we open-sourced our implementation of Mask R-CNN, and since then it’s been forked 1400 times, used in a lot of projects, and improve
阅读全文
摘要:本文是对CRF基本原理的一个简明的介绍。当然,“简明”是相对而言中,要想真的弄清楚CRF,免不了要提及一些公式,如果只关心调用的读者,可以直接移到文末。 图示 # 按照之前的思路,我们依旧来对比一下普通的逐帧softmax和CRF的异同。 逐帧softmax # CRF主要用于序列标注问题,可以简单
阅读全文
摘要:背景 之前在研究Object Detection的时候,只是知道Precision这个指标,但是mAP(mean Average Precision)具体是如何计算的,暂时还不知道。最近做OD的任务迫在眉睫,所以仔细的研究了一下mAP的计算。其实说实话,mAP的计算,本身有很多现成的代码可供调用了,
阅读全文
摘要:论文解读:Radam:ON THE VARIANCE OF THE ADAPTIVE LEARNING RATE AND BEYOND 1,目的 想找到一个比较好的优化器,能够在收敛速度和收敛的效果上都比较号。 目前sgd收敛较好,但是慢。 adam收敛快,但是容易收敛到局部解。 常用解决adam收
阅读全文
摘要:CNN从2012年的AlexNet发展至今,科学家们发明出各种各样的CNN模型,一个比一个深,一个比一个准确,一个比一个轻量。我下面会对近几年一些具有变革性的工作进行简单盘点,从这些充满革新性的工作中探讨日后的CNN变革方向。注:水平所限,下面的见解或许有偏差,望大牛指正。另外只介绍其中具有代表性的模型,一些著名的模型由于原理相同将不作介绍,若有遗漏也欢迎指出。一、卷积只能在同一组进行吗?-- G...
阅读全文
摘要:任何看过MobileNet架构的人都会遇到可分离卷积(separable convolutions)这个概念。但什么是“可分离卷积”,它与标准的卷积又有什么区别?可分离卷积主要有两种类型: 空间可分离卷积(spatial separable convolutions) 深度可分离卷积(depthwi
阅读全文
摘要:前言 Face book AI research(FAIR)吴育昕-何恺明联合推出重磅新作Group Normalization(GN),提出使用Group Normalization 替代深度学习里程碑式的工作Batch normalization,本文将从以下三个方面为读者详细解读此篇文章: W
阅读全文
摘要:1 引言深度学习目前已经应用到了各个领域,应用场景大体分为三类:物体识别,目标检测,自然语言处理。本文着重与分析目标检测领域的深度学习方法,对其中的经典模型框架进行深入分析。目标检测可以理解为是物体识别和物体定位的综合,不仅仅要识别出物体属于哪个分类,更重要的是得到物体在图片中的具体位置。为了完成这两个任务,目标检测模型分为两类。一类是two-stage,将物体识别和物体定位分为两个步骤,分别完成...
阅读全文
摘要:Image Registration is a fundamental step in Computer Vision. In this article, we present OpenCV feature-based methods before diving into Deep Learning
阅读全文
摘要:本文是对参考资料中多篇关于sampling的内容进行总结+搬运,方便以后自己翻阅。其实参考资料中的资料写的比我好,大家可以看一下!好东西多分享!PRML的第11章也是sampling,有时间后面写到PRML的笔记中去:)背景随机模拟也可以叫做蒙特卡罗模拟(Monte Carlo Simulation)。这个方法的发展始于20世纪40年代,和原子弹制造的曼哈顿计划密切相关,当时的几个大牛,包括乌拉姆...
阅读全文
摘要:使用深度学习的超分辨率介绍关于使用深度学习进行超分辨率的各种组件,损失函数和度量的详细讨论。介绍超分辨率是从给定的低分辨率(LR)图像恢复高分辨率(HR)图像的过程。由于较小的空间分辨率(即尺寸)或由于退化的结果(例如模糊),图像可能具有“较低分辨率”。我们可以通过以下等式将HR和LR图像联系起来:LR = degradation(HR)显然,在应用降级函数时,我们从HR图像获得LR图像。但是,我...
阅读全文
摘要:机器学习工程师最熟悉的设置之一是访问大量数据,但需要适度的资源来注释它。处于困境的每个人最终都会经历逻辑步骤,当他们拥有有限的监督数据时会问自己该做什么,但很多未标记的数据,以及文献似乎都有一个现成的答案:半监督学习。 这通常是出现问题的时候。 从历史上看,半监督学习一直是每个工程师作为一种通过仪式
阅读全文