摘要: [TOC] Abstract 当前,许多效果不错的目标检测算法都需要枚举很多可能的位置并对它们进行一一分类,这些方法不仅浪费资源,而且需要后期处理(一般指NMS),十分低效。在这篇论文中,我们使用了不一样的算法——将待检目标预测为一个点(该目标的边框中心)。我们的算法使用关键点预测来发现中心点,并回 阅读全文
posted @ 2019-10-04 17:36 虔诚的树 阅读(573) 评论(0) 推荐(0)
摘要: Focal Loss 与 GHM Focal Loss Focal Loss 的提出主要是为了解决难易样本数量不平衡(注意:这有别于正负样本数量不均衡问题)问题。下面以目标检测应用场景来说明。 1. 一些 one stage 的目标检测器通常会产生很多数量的 anchor box,但是只有极少数是正 阅读全文
posted @ 2019-09-28 11:33 虔诚的树 阅读(5221) 评论(0) 推荐(0)
摘要: [TOC] PCA 1. PCA最大可分性的思想 ​ 最大可分性: 样本点在超平面上的投影尽可能的分开 2. 基变换(线性变换) ​ 3. 方差 ​ 如何选择一个方向或者基才是最优的?基于PCA最大可分思想,我们要找的方向是 降维后损失最小 ,可以理解为 投影后的数据尽可能分得开 ,而分散程度可以用 阅读全文
posted @ 2019-09-26 21:38 虔诚的树 阅读(1911) 评论(0) 推荐(0)
摘要: 声明:本文大部分内容是从知乎、博客等知识分享站点摘录而来,以方便查阅学习。具体摘录地址已在文章底部引用部分给出。 1. 查看模型每层输出详情 2. 梯度裁减 3. 扩展图片维度 因为训练时数据维度一般为(batch_size, c, h,, w),而测试时如果只输入一张图片,则需要进行维度扩展。 方 阅读全文
posted @ 2019-09-25 10:02 虔诚的树 阅读(329) 评论(0) 推荐(0)
摘要: 【转载】源博客 product 用于求多个可迭代对象的笛卡尔积(Cartesian Product),它跟嵌套的 for 循环等价.即: product(A, B) 和 ((x,y) for x in A for y in B)的效果是一样的。 使用形式如下: iterables 是可迭代对象, r 阅读全文
posted @ 2019-09-18 18:42 虔诚的树 阅读(18150) 评论(0) 推荐(2)
摘要: 【强化学习】值迭代和策略迭代 在强化学习中我们经常会遇到策略迭代与值迭代,但是很多人都搞不清楚他们两个之间的区别,他们其实都是强化学习中的动态规划方法(DP)。 ——《Reinforcement Learning:An Introduction》 (一)值迭代 (二)策略迭代 从一个初始化的策略出发 阅读全文
posted @ 2019-09-17 19:33 虔诚的树 阅读(5860) 评论(0) 推荐(1)
摘要: PyTorch中的MaxPool(最大池化)有一个属性:ceil_mode,默认为False(地板模式),为True时是天花板模式。 阅读全文
posted @ 2019-09-16 19:40 虔诚的树 阅读(5138) 评论(0) 推荐(5)
摘要: 猫狗识别 数据集下载: 网盘链接:https://pan.baidu.com/s/1SlNAPf3NbgPyf93XluM7Fg 提取密码:hpn4 1. 要导入的包 import os import time import numpy as np import torch import torch 阅读全文
posted @ 2019-09-16 09:23 虔诚的树 阅读(2717) 评论(0) 推荐(0)
摘要: 强化学习: 强化学习作为一门灵感来源于 心理学中的行为主义理论 的学科,其内容涉及 概率论、统计学、逼近论、凸分析、计算复杂性理论、运筹学 等多学科知识,难度之大,门槛之高,导致其发展速度特别缓慢。 一种解释: 人的一生其实都是不断在强化学习,当你有个动作(action)在某个状态(state)执行 阅读全文
posted @ 2019-09-12 11:37 虔诚的树 阅读(1689) 评论(1) 推荐(0)
摘要: 1. OSError: [Error 12] Cannot allocate memory 解决办法: 出现这个错误时我是绝望的。。。因为我看了别人的解决办法,要加内存条才能解决。。。但是我不甘心,想了很久——发现了一个解决办法:将 DataLoader 中的 设置为1。缺点:数据加载必然变得很慢, 阅读全文
posted @ 2019-09-09 22:31 虔诚的树 阅读(871) 评论(0) 推荐(0)
点击右上角即可分享
微信分享提示