摘要:
返回一个数组排序后的索引经常在项目中用到,所以这里总结一下c++和python两种语言的实现。 Python #!/usr/local/bin/python3 a=[2,3,4,5,63,4,32,3] # ascending #sorted sorted_indx = [idx for idx,v 阅读全文
摘要:
简介 参考:https://developer.download.nvidia.com/assets/cuda/files/reduction.pdf NVIDIA 官方有一个PPT是介绍reduce sum,就是对数组进行求和。这个在串行程序里面非常简单的程序,在并行里面实现却有很多的技巧。PPT 阅读全文
摘要:
简介 深度学习中,数据集的预处理往往是很基础的一步,很多场景都需要将一张大图进行切割。本篇提供一种重叠矩形框的生成方法,数据集中的图像尺寸可以不同,根据生成的重叠矩形框可以crop出相应的图像区域。主要难点在于函数不假设图像的尺寸大小。 实现 以下是重叠矩形框的生成函数,是根据右下角的坐标来确定左上 阅读全文
摘要:
概述 本篇介绍多计算节点上的pytorch分布式训练。从环境配置到运行demo的所有步骤,step by step。没有理论原理,理论原理可以参考 "这里" . 基础环境 多台linux计算节点,通过网络连接,不同主机之间可以相互ping通。网速越快越好,如果通信速度比较慢,就不用怎么考虑分布式训练 阅读全文
摘要:
概述 Pytorch多GPU训练本质上是数据并行,每个GPU上拥有整个模型的参数,将一个batch的数据均分成N份,每个GPU处理一份数据,然后将每个GPU上的梯度进行整合得到整个batch的梯度,用整合后的梯度更新所有GPU上的参数,完成一次迭代。 其中多gpu训练的方案有两种,一种是利用 实现, 阅读全文
摘要:
VS的问题 默认当前工作目录:.vcxproj 文件所在的目录,所以在设置相对路径时需要根据这个文件所在位置来设置。而直接运行exe时是相对于exe所在的目录,或者执行exe时的工作目录。 运行库配置: 建议使用第三种方式,这种方式项目结构更加的干净。 阅读全文
摘要:
简介 用哪个终端复用工具?别问,问就是tmux. tmux 的设计哲学与vim类似,也有命令模式和非命令模式.命令模式下有很多快捷键可以用,非命令模式就是正常的终端操作. 基本的结构是: 服务 sessions windows panels 服务一般是创建会话的时候就自动创建好了,一个服务包含多个会 阅读全文
摘要:
FPN bottom up + top down. 参考:https://github.com/luliyucoordinate/FPN_pytorch/blob/master/fpn.py import torch.nn as nn import torch.nn.functional as F 阅读全文
摘要:
做过机器学习项目的同学大多都用过f1-score, 这是一种均衡精度(precision)和召回率(recall)的综合评价指标,但为什么不用平均值呢? 精度和召回率 $$ pre = \frac{tp}{tp+fp}$$ tp: true positive 真正例,即预测为正例真实也为正例的个数; 阅读全文
摘要:
论文参考链接:https://arxiv.org/abs/1705.02758 主要思想 提出了一种利用预训练模型(Imagenet Pretrained)来做解决目标共定位(object co localization)问题。目标共定位即给定一个图像集,这个图像集中大部分图像区域都是某一个物体如飞 阅读全文