08 2022 档案
摘要:一、神经网络训练 # file : train.py # time : 2022/8/11 上午10:03 # function : import torchvision.datasets from model import * from torch.utils.data import DataLo
阅读全文
摘要:一、网络模型的保存和加载 1、网络模型保存方法1 import torch import torchvision vgg16 = torchvision.models.vgg16(weights=False) # 保存方法1:模型结构+模型参数 torch.save(vgg16, "vgg16_me
阅读全文
摘要:一、github官方网址 https://github.com/ultralytics/yolov5/tree/v6.1 二、labelme标记数据集: (1)、进入虚拟环境 (2)、pip install labelme (3)、labelme打开 (4)、注意选择自动保存 注:labelme 支
阅读全文
摘要:官网网址: https://pytorch.org/vision/0.9/models.html#semantic-segmentation (1)、ImageNet train_data = torchvision.datasets.ImageNet("../dataset", split='tr
阅读全文
摘要:一、百度Unit新建机器人 网址:https://ai.baidu.com/tech/speech/asr: 1、新建机器人并添加预置技能步骤 (1)、新建机器人(添加预置技能),并填写机器人具体信息 (2)、进入新建的机器人 -> 选择技能管理 -> 添加技能 (3)、可以选择预置技能 -> 进度
阅读全文
摘要:1、损失函数的作用: (1)计算实际输出和目标输出之间的差距; (2)为我们更新输出提供一定的依据(也就是反向传播) 官网链接:https://pytorch.org/docs/1.8.1/nn.html 2、损失函数的使用 2.1、L1Loss 注:reduction = “sum” 表示求和 /
阅读全文
摘要:1、神经网络图 输入图像是3通道的32×32的,先后经过卷积层(5×5的卷积核)、最大池化层(2×2的池化核)、卷积层(5×5的卷积核)、最大池化层(2×2的池化核)、卷积层(5×5的卷积核)、最大池化层(2×2的池化核)、拉直、全连接层的处理,最后输出的大小为10。 注:(1)通道变化时通过调整卷
阅读全文
摘要:(一)Liner Layers线性层 b 是偏移量bias 代码输入: import torch import torchvision from torch import nn from torch.nn import Linear from torch.utils.data import Data
阅读全文
摘要:如果神经元的输出是输入的线性函数,而线性函数之间的嵌套任然会得到线性函数。如果不加非线性函数处理,那么最终得到的仍然是线性函数。所以需要在神经网络中引入非线性激活函数。 常见的非线性激活函数主要包括Sigmoid函数、tanh函数、ReLU函数、Leaky ReLU函数,这几种非线性激活函数的介绍在
阅读全文
摘要:(一)神经网络的骨架 nn.Module import torch from torch import nn class Tudui(nn.Module): def __init__(self): super().__init__() def forward(self, input): output
阅读全文
摘要:batch_size:有多少张 shuffle=True:顺序不打乱 num_workers: 进程数 drop_last:最后不够64张是否舍去 import torchvision from torch.utils.data import DataLoader # 1 from torch.ut
阅读全文