摘要:
1. Package # -*- coding: utf-8 -*- import os, sys, glob, shutil, json os.environ["CUDA_VISIBLE_DEVICES"] = '0' import cv2 import numpy as np from PIL 阅读全文
摘要:
装饰器 假设用funcA函数装饰器去装饰funcB函数 # 装饰器函数 def funcA(fc): print('this is funcA') # 执行传入的fc参数 fc() return fc @funcA def funcB(): print('this is funcB') funcB( 阅读全文
摘要:
微调流程 在源数据集(source dataset)上预训练一个网络模型,即源模型(source model) 创建一个新的网络模型,即目标模型(target model) 目标模型复制了源模型上除了输出层外的所有模型设计及参数。 我们假设这些模型参数包含了源数据集上学习到的知识,且这些知识同样适用 阅读全文
摘要:
修改模型 import torchvision.models as models net = models.resnet50() # 查看模型定义 print(net) # output ResNet( (conv1): Conv2d(3, 64, kernel_size=(7, 7), strid 阅读全文
摘要:
在线下载 from PIL import Image import torch import torchvision from torch.utils.data.dataset import Dataset import torchvision.transforms as transforms # 阅读全文
摘要:
Tensor dtype: 张量的数据类型,如torch.FloatTensor, torch.cuda.FloatTensor shape: 张量形状 device: 张量所在设备 requires_grad: 指示是否需要梯度 grad: data的梯度 grad_fn: 创建Tensor的Fu 阅读全文
摘要:
定义 warm_up是针对学习率优化的一种策略 在warm_up期间,学习率从0开始,线性增加到优化器中初始预设的学习率,随后将学习率从优化器的初始预设学习率(线性\非线性)降低到0. 为什么使用warm up 有助于减缓模型在初始阶段对mini-batch的提前过拟合现象,保持分布的平稳 刚开始训 阅读全文
摘要:
lr_scheduler PyTorch中torch.optim.lr_scheduler封装的API: lr_scheduler.LambdaLR lr_scheduler.MultiplicativeLR lr_scheduler.StepLR lr_scheduler.MultiStepLR 阅读全文
摘要:
np.ceil(ndarray) 功能:计算大于等于当前值的最小整数 np.ceil(ndarray) 功能:计算小于等于当前值的最大整数 >>> import numpy as np >>> a=np.array([1.5, 1.2, -1.4, -3.1, 1.9, 2.9]) >>> b=np 阅读全文
摘要:
题目:给你一个字符串 s ,将该字符串中的大写字母转换成相同的小写字母,返回新的字符串 思路:大写的ascii值 + 32 = 对应小写字母的ascii 通过位或运算实现替换+32的操作 $$ A (65) : \ 1 0 0 0 0 0 1 \ ||\ \ \ 32: \ 0 1 0 0 0 0 阅读全文