随笔分类 - 机器/深度学习框架
摘要:1 import tensorflow as tf 2 import onnx 3 import onnxsim 4 import numpy as np 5 import torch 6 from model.facedetector_model import mobilenetv2_yolov3
阅读全文
摘要:转自:https://blog.csdn.net/tfcy694/article/details/85332953 按照指定轴上的坐标进行过滤 index_select()沿着某tensor的一个轴dim筛选若干个坐标 >>> x = torch.randn(3, 4) # 目标矩阵 >>> x t
阅读全文
摘要:https://blog.csdn.net/bigbennyguo/article/details/87956434
阅读全文
摘要:转载自:https://www.pythonf.cn/read/147307 目录 前言 1. 创建张量(tensor) 2. 比较大小 & bool张量快速判断 3. 索引与切片 4. 维度变换 5. 拼接与拆分 6. 基本运算 7. 数据统计 8. 复杂操作 9. 未完待续... 前言 本文内容
阅读全文
摘要:model.train():打开BN和Droupout model.eval():关闭BN和Droupout loss.backward():loss的梯度回传 optimizer.step():进行一次参数更新 *表示逐点相乘,@表示矩阵相乘
阅读全文
摘要:https://cloud.tencent.com/developer/article/1433735
阅读全文
摘要:https://blog.csdn.net/bigbennyguo/article/details/87956434
阅读全文
摘要:在pytorch进行模型保存的时候,一般有两种保存方式,一种是保存整个模型,另一种是只保存模型的参数。 torch.save(model.state_dict(), "my_model.pth") # 只保存模型的参数 torch.save(model, "my_model.pth") # 保存整个
阅读全文
摘要:torch.load()的作用:从文件加载用torch.save()保存的对象。 api: torch.load(f, map_location=None, pickle_module=<module 'pickle' from '/opt/conda/lib/python3.6/pickle.py
阅读全文
摘要:pytorch结果不可重现,大概率是随机数种子设置的问题。 Pytorch、Python、Numpy中的随机种子没有固定 数据预处理、增强方式采用了概率,若没有设置固定的随机种子,结果可能不同。例如常用数据增强库albumentations就采用了Python的随机产生器。 训练数据集被随机打乱了顺
阅读全文
摘要:定义: 在模型中有两种需要被保存下来的参数:parameter和buffer 一种是反向传播需要被optimizer更新的,称之为 parameter(如权重等) 一种是反向传播不需要被optimizer更新,称之为 buffer(一些阈值之类的) 注册:torch.nn.register_para
阅读全文
摘要:nn.DataParallel() 网络在前向传播的时候会将model从主卡(默认是逻辑0卡)复制一份到所有的device上,input_data会在batch这个维度被分组后upload到不同的device上计算。在反向传播时,每个卡上的梯度会汇总到主卡上,求得梯度的均值后,再用反向传播更新单个G
阅读全文