随笔分类 - 深度学习&机器学习&机器学习 / 深度学习-pytorch复习
摘要:import torch from torch.utils.data import TensorDataset, DataLoader # 假设有一些张量和对应的标签 tensors = [torch.randn(32, 10) for _ in range(100)] # 示例张量列表 label
阅读全文
摘要:1.lambda 这个可以看成函数的简化版,下面看几个例子: 例1 a = 10 f = lambda x: x * a print(f) print(type(f)) print(f(3)) <function <lambda> at ...> # 这里的 ... 指得是运行代码时分配的地址 <c
阅读全文
摘要:1. 这个可以放在模型net的__init__:中 for name, param in self.named_parameters(): if 'weight' in name: nn.init.xavier_normal_(param) 比如说: class Model(nn.Module):
阅读全文
摘要:首先先说个结论,就是dim等于那个维度,就是把那个维度给消除了,比如说shape=(2,3,4),如果dim=0,最后的结果的shape=(3,4),如果dim=1,最后的结果的shape=(2,4),如果dim=2的话,最后的结果的shape=(2,3) 首先我们看个例子吧: import num
阅读全文
摘要:在torchvision中下载MNIST数据集 import torchvision from torchvision.transforms import ToTensor import torch 常见的图片格式: (高, 宽, 通道) 然后这里我们设置ToTensor()的作用就是: ToTen
阅读全文
摘要:softmax分类 softmax的样本分量之和为1 当只有两个类别时,与对数几率回归完全相同 pytorch交叉嫡 在pytorch里,对于多分类问题我们使用 nn.CrossEntropyLoss()和nn.NLLLoss等来计算softmax交叉嫡,就是用这两个计算损失。
阅读全文
摘要:数据处理 读入数据 import torch import pandas as pd import numpy as np import matplotlib.pyplot as plt data = pd.read_csv('./HR.csv') data.head() data.info() 数
阅读全文
摘要:上一节我们学习的逻辑回归模型是单个神经元: 计算输入特征的加权和 然后使用一个激活函数或传递函数)计算输出 单层神经元的缺陷 无法拟合“异或”运算 异或问题看似简单,使用单层的神经元确实没有办法解决 神经元要求数据必须是线性可分的 异或问题无法找到一条直线分割两个类 这个问题使得神经网络的发展停滞了
阅读全文
摘要:首先我们先看看这个数据集长什么样子: 首先这个数据集是没有表头的,最后一行是需要预测的结果-1和1代表欺诈和不欺诈。 读取文件 import pandas as pd import torch data=pd.read_csv('./credit-a.csv',header=None) data.h
阅读全文
摘要:AutoGrad的回溯机制与动态计算图 可微分性相关属性 新版PyTorch中的张量已经不仅仅是一个纯计算的载体,张量本身也可支持微分运算。这种可微分性其实不仅体现在我们可以使用grad函数对其进行求导,更重要的是这种可微分性会体现在可微分张量参与的所有运算中。 requires_grad属性:可微
阅读全文