随笔分类 -  机器/深度学习框架

摘要:1 import tensorflow as tf 2 import onnx 3 import onnxsim 4 import numpy as np 5 import torch 6 from model.facedetector_model import mobilenetv2_yolov3 阅读全文
posted @ 2022-10-11 10:06 鲍曼小学生 阅读(390) 评论(1) 推荐(0) 编辑
摘要:转自:https://blog.csdn.net/tfcy694/article/details/85332953 按照指定轴上的坐标进行过滤 index_select()沿着某tensor的一个轴dim筛选若干个坐标 >>> x = torch.randn(3, 4) # 目标矩阵 >>> x t 阅读全文
posted @ 2021-09-06 19:31 鲍曼小学生 阅读(1839) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/bigbennyguo/article/details/87956434 阅读全文
posted @ 2021-08-19 19:37 鲍曼小学生 阅读(23) 评论(0) 推荐(0) 编辑
摘要:转载自:https://www.pythonf.cn/read/147307 目录 前言 1. 创建张量(tensor) 2. 比较大小 & bool张量快速判断 3. 索引与切片 4. 维度变换 5. 拼接与拆分 6. 基本运算 7. 数据统计 8. 复杂操作 9. 未完待续... 前言 本文内容 阅读全文
posted @ 2021-08-17 14:16 鲍曼小学生 阅读(629) 评论(0) 推荐(1) 编辑
摘要:model.train():打开BN和Droupout model.eval():关闭BN和Droupout loss.backward():loss的梯度回传 optimizer.step():进行一次参数更新 *表示逐点相乘,@表示矩阵相乘 阅读全文
posted @ 2021-08-16 16:54 鲍曼小学生 阅读(80) 评论(0) 推荐(0) 编辑
摘要:https://cloud.tencent.com/developer/article/1433735 阅读全文
posted @ 2021-08-16 16:49 鲍曼小学生 阅读(34) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/bigbennyguo/article/details/87956434 阅读全文
posted @ 2021-08-16 10:52 鲍曼小学生 阅读(22) 评论(0) 推荐(0) 编辑
摘要:在pytorch进行模型保存的时候,一般有两种保存方式,一种是保存整个模型,另一种是只保存模型的参数。 torch.save(model.state_dict(), "my_model.pth") # 只保存模型的参数 torch.save(model, "my_model.pth") # 保存整个 阅读全文
posted @ 2021-08-03 09:43 鲍曼小学生 阅读(1682) 评论(0) 推荐(0) 编辑
摘要:torch.load()的作用:从文件加载用torch.save()保存的对象。 api: torch.load(f, map_location=None, pickle_module=<module 'pickle' from '/opt/conda/lib/python3.6/pickle.py 阅读全文
posted @ 2021-06-10 16:57 鲍曼小学生 阅读(4763) 评论(0) 推荐(0) 编辑
摘要:pytorch结果不可重现,大概率是随机数种子设置的问题。 Pytorch、Python、Numpy中的随机种子没有固定 数据预处理、增强方式采用了概率,若没有设置固定的随机种子,结果可能不同。例如常用数据增强库albumentations就采用了Python的随机产生器。 训练数据集被随机打乱了顺 阅读全文
posted @ 2021-06-10 16:28 鲍曼小学生 阅读(326) 评论(0) 推荐(0) 编辑
摘要:定义: 在模型中有两种需要被保存下来的参数:parameter和buffer 一种是反向传播需要被optimizer更新的,称之为 parameter(如权重等) 一种是反向传播不需要被optimizer更新,称之为 buffer(一些阈值之类的) 注册:torch.nn.register_para 阅读全文
posted @ 2021-06-03 10:43 鲍曼小学生 阅读(1707) 评论(0) 推荐(0) 编辑
摘要:nn.DataParallel() 网络在前向传播的时候会将model从主卡(默认是逻辑0卡)复制一份到所有的device上,input_data会在batch这个维度被分组后upload到不同的device上计算。在反向传播时,每个卡上的梯度会汇总到主卡上,求得梯度的均值后,再用反向传播更新单个G 阅读全文
posted @ 2021-05-27 15:06 鲍曼小学生 阅读(277) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示