摘要: 例子 vgg16_false = torchvision.models.vgg16(pretrained=False) # 保存方式1(网络模型) torch.save(vgg16_false,"vgg_method1.pth") # 保存方式2(参数模型) torch.save(vgg16_fal 阅读全文
posted @ 2021-09-04 20:04 EA2218764AB 阅读(76) 评论(0) 推荐(0) 编辑
摘要: 例子 import torchvision from torch import nn vgg16_false = torchvision.models.vgg16(pretrained=False) vgg16_true = torchvision.models.vgg16(pretrained=T 阅读全文
posted @ 2021-08-28 22:16 EA2218764AB 阅读(95) 评论(0) 推荐(0) 编辑
摘要: 官方网站 例子: import torch import torchvision.datasets from torch import nn from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear from torch. 阅读全文
posted @ 2021-08-20 18:33 EA2218764AB 阅读(50) 评论(0) 推荐(0) 编辑
摘要: 官方网站 其它待补 阅读全文
posted @ 2021-08-20 18:21 EA2218764AB 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 官方文档 一个例子 padding算法 代码 import torch from torch import nn from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear from torch.utils.tensorbo 阅读全文
posted @ 2021-08-14 19:06 EA2218764AB 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 官方网站 一个例子: import torch import torchvision.datasets from torch import nn from torch.nn import ReLU, Sigmoid, Linear from torch.nn import Conv2d, MaxPo 阅读全文
posted @ 2021-08-14 18:59 EA2218764AB 阅读(76) 评论(0) 推荐(0) 编辑
摘要: 官方网站 一个例子 import torch import torchvision.datasets from torch import nn from torch.nn import ReLU, Sigmoid from torch.nn import Conv2d, MaxPool2d, ReL 阅读全文
posted @ 2021-08-14 17:40 EA2218764AB 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 参考资料 ML笔记 ML课程 (复制一遍笔记是为了加深印象) 理论基础 Why CNN for Image? CNN V.s. DNN 在train neural network的时候,我们会有一种期待说,在这个network structure里面的每一个neuron,都应该代表了一个最基本的cl 阅读全文
posted @ 2021-08-13 11:24 EA2218764AB 阅读(211) 评论(0) 推荐(0) 编辑
摘要: Dataset 官方的dataset 例子 import torchvision.datasets from torch.utils.tensorboard import SummaryWriter dataset_transform = torchvision.transforms.Compose 阅读全文
posted @ 2021-08-12 19:01 EA2218764AB 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 自学方法: 关注输入输出 多看官方文档 关注方法需要什么参数 不知道类型时可用: print(xx) print(type(xx)) debug tensorboard 创建输出文件夹: write = SummaryWriter("log") def __init__(self, log_dir= 阅读全文
posted @ 2021-08-11 20:26 EA2218764AB 阅读(105) 评论(0) 推荐(0) 编辑