摘要:code binary_mask = (im_array[:,:,0] == 255) & (im_array[:,:,1] == 255) & (im_array[:,:,2] == 0) 参考 1. convert-rgb-image-to-index-image; 完
阅读全文
摘要:最后使用了system的语句close窗口; 但是如何自定义或者自动调整窗口大小的操作,还没找到哦啊; 参考 1. how-can-i-close-an-image-shown-to-the-user-with-the-python-imaging-library; 2. display-image
阅读全文
摘要:参考 1. WGAN; 2. 距离度量完整版; 完
阅读全文
摘要:APEX 如何安装 git clone https://github.com/NVIDIA/apex.git cd apex pip3 install --no-cache-dir --global-option="--pyprof" --global-option="--cpp_ext" --gl
阅读全文
摘要:参考 1. Unet; 2. code; 3. https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/; 完
阅读全文
摘要:何凯明 http://kaiminghe.com/ 程明明 https://mmcheng.net/cmm/ 程明明课题组 刘云 https://yun-liu.github.io/
阅读全文
摘要:参考SNPE官方文档的步骤。本文以安装pytorch为例记录安装过程,其他类似。 一 准备工作 1)ubuntu18。04; 2)不同框架的安装步骤; 3)python3的环境; 二 SNPE的环境以及依赖 注意安装python的各种package; 三 pytorch环境的安装; 3.1 pyto
阅读全文
摘要:参考 1. attanet; 2. github; 完
阅读全文
摘要:参考 1. C3: Concentrated-Comprehensive Convolution and its application to semantic segmentation; 2. C3模块-空洞可分离卷积存在的问题及轻量化语义分割模型架构技巧; 3. C3_github; 完
阅读全文
摘要:参考 1. ExtremeC3Net: 使用高级C3模块的极轻量人像分割模型; 2. ExtremeC3Net_paper; 完
阅读全文
摘要:参考 1. pytorch系列 -- 9 pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization; 完
阅读全文
摘要:1. 常规卷积 2. 分组卷积 2. 深度可分离卷积 Depthwise Convolution + Pointwise Convolution 2.1 Depthwise Convolution 2.2 Pointwise Convolution Depthwise(DW)卷积与Pointwise
阅读全文
摘要:概念 随机数 伪随机数 随机种子 若采用random.random(),每次都按照一定的序列(默认的某一个参数)生成不同的随机数。 若采用随机数种子random.seed(100),它将在所设置的种子100范围内调用random()模块生成随机数,如果再次启动random.seed(100),它则按
阅读全文
摘要:参考 1. PyTorch中的modules()和children()相关函数简析; 完
阅读全文
摘要:参考 1. pytorch中num_workers详解; 完
阅读全文
摘要:参考 1. 如何理解空洞卷积(dilated convolution)? 完
阅读全文
摘要:FLOPS:注意全大写,是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。 FLOPs:注意s小写,是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可
阅读全文
摘要:参考 1. adabelief; 2. paper; 3. github; 4. PPT; 完
阅读全文
摘要:参考 1. pytorch:实例讲解DataLoader具体工作流程; 完
阅读全文
摘要:api: CLASS torch.nn.PReLU(num_parameters=1, init=0.25, device=None, dtype=None) 注意参数和ReLU不一样的; 原理: PReLU(x)=max(0,x)+a∗min(0,x) 其中,a是一个学习参数,默认a是对所有通道
阅读全文