随笔分类 - Pytorch
摘要:==GitHub仓库==:gy-7/mmcls_multi_label_torchserve (github.com) 各个文件说明: cls_requests_demo:分类模型请求api服务的demo det_requests_demo:检测模型请求api服务的demo inference:要修
阅读全文
摘要:堡垒机创建conda环境,并激活进入环境 conda create -n mmclassification python=3.7 conda activate mmclassification 堡垒机安装pytorch,torchvision,cudatoolkit 下载torch,torchvis
阅读全文
摘要:0. 设备环境 ubuntu--20.10 GPU--3080 cuda--11.0 torch--1.7.0 mmcv--1.3.8 mmdetection--2.11.0 所有的git的项目,都可以用 GitHub Proxy 代理加速 (ghproxy.com) 转链,尤其是swin tran
阅读全文
摘要:分享数据集的集中常用处理代码,使用的时候记得改一下自己的路径,ann_dir是coco的json文件路径,img_dir是图片路径。如果用pycharm控制台输出的中文为乱码,将pycharm中的编码全改成utf-8(设置->编辑器->文件编码),把能改成utf-8的选项都改了。 1️⃣ 有些数据集
阅读全文
摘要::book: 首先需要准备好数据集,这里有labelme标签数据转coco数据集标签的说明:labelme转coco数据集 - 一届书生 - 博客园 (cnblogs.com) 1. 准备工作目录 我们的工作目录,也就是mmdetection目录,如下所示: |-- configs | |-- _b
阅读全文
摘要:Detectron2环境配置 1.创建detectron2 conda环境 conda create -n detectron2 python=3.7 2.激活detectron2 conda环境 conda activate detectron2 3.安装 pytorch1.7.0 cuda10.
阅读全文
摘要:论文地址:https://arxiv.org/pdf/1812.04202.pdf 最近老师让我们读的一片论文,已经开组会讲完了,我负责的是第五章,图的自动编码,现在再总结一遍,便于后者研读。因为这篇论文是一篇综述,所以里边有些符号,在这个模型里是一个意思,在另一个模型了,符号又变了。 GRAPH
阅读全文
摘要:先说一个小知识,助于理解代码中各个层之间维度是怎么变换的。 卷积函数:一般只用来改变输入数据的维度,例如3维到16维。 Conv2d() Conv2d(in_channels:int,out_channels:int,kernel_size:Union[int,tuple],stride=1,pad
阅读全文
摘要:先说一个小知识,助于理解代码中各个层之间维度是怎么变换的。 卷积函数:一般只用来改变输入数据的维度,例如3维到16维。 Conv2d() Conv2d(in_channels:int,out_channels:int,kernel_size:Union[int,tuple],stride=1,pad
阅读全文
摘要:均方差损失函数mse_loss()与交叉熵损失函数cross_entropy() 1.均方差损失函数mse_loss() 均方差损失函数是预测数据和原始数据对应点误差的平方和的均值。 \[ MSE=\frac{1}{N}( y^`−y)^2 \] N为样本个数,y'为预测数值,y为正确数值。 代码实
阅读全文
摘要:1.Himmelblau函数 Himmelblau函数: F(x,y)=(x²+y-11)²+(x+y²-7)²:具体优化的是,寻找一个最合适的坐标(x,y)使得F(x,y)的值最小。 函数的具体图像,如下图所示: 实现代码 import numpy as np from matplotlib im
阅读全文
摘要:1.单层感知机 单层感知机的主要步骤: 1.对数据进行一个权重的累加求和,求得∑ 2.将∑经过一个激活函数Sigmoid,得出值O 3.再将O,经过一个损失函数mse_loss,得出值loss 4.根据loss,以及前边所求得的值,求得loss对各个w的偏导数 5.更新w值 # 单层感知机梯度的推导
阅读全文
摘要:1.激活函数 激活函数的作用是能够给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。因为很多问题都不是线性的,你只有给它加入一些非线性因素,就能够让问题更好的解决。 函数1:RELU(): 优点: 1.相比起Sigmoid和tanh,在SGD中能够快速收敛。 2.有效缓解了梯度
阅读全文
摘要:1.矩阵的分割 方法:split(分割长度,所分割的维度),split([分割所占的百分比],所分割的维度) a=torch.rand(32,8) aa,bb=a.split(16,dim=0) print(aa.shape) print(bb.shape) cc,dd=a.split([20,12
阅读全文
摘要:1.矩阵的转置 方法:t() a=torch.randint(1,10,[2,3]) print(a,'\n') print(a.t()) 输出结果 tensor([[2, 8, 2], [9, 2, 4]]) tensor([[2, 9], [8, 2], [2, 4]]) transpose(维
阅读全文
摘要:数据本身不发生改变,数据的访问方式发生了改变 1.维度的扩展 函数:unsqueeze() # a是一个4维的 a = torch.randn(4, 3, 28, 28) print('a.shape\n', a.shape) print('\n维度扩展(变成5维的):') print('第0维前加
阅读全文
摘要:1.基本概念 标量:就是一个数,是0维的,只有大小,没有方向 向量:是1*n的一列数,是1维的,有大小,也有方向 张量:是n*n的一堆数,是2维的,n个向量合并而成 2.a.size(),a.shape(),a.numel(),a.dim()的区别 a.size():输出a的某一维度中元素的个数,若
阅读全文