随笔分类 -  编程问题

摘要:sklearn之train_test_split()函数各参数含义(非常全) 在机器学习中,我们通常将原始数据按照比例分割为“测试集”和“训练集”,从 sklearn.model_selection 中调用train_test_split 函数 简单用法如下: X_train,X_test, y_t 阅读全文
posted @ 2022-03-04 10:39 图神经网络 阅读(466) 评论(0) 推荐(0) 编辑
摘要:Example: import tensorflow as tf # 创建 4 个张量,并赋值 a = tf.constant(1.) b = tf.constant(2.) c = tf.constant(3.) w = tf.constant(4.) with tf.GradientTape() 阅读全文
posted @ 2022-02-26 16:24 图神经网络 阅读(89) 评论(0) 推荐(0) 编辑
摘要:tf.data.Dataset.from_tensor_slices 该函数是dataset核心函数之一,它的作用是把给定的元组、列表和张量等数据进行特征切片。切片的范围是从最外层维度开始的。如果有多个特征进行组合,那么一次切片是把每个组合的最外维度的数据切开,分成一组一组的。 假设我们现在有两组数 阅读全文
posted @ 2022-02-26 11:39 图神经网络 阅读(656) 评论(0) 推荐(1) 编辑
摘要:#将python的数据类型(列表和矩阵)转换成TensorFlow可用的tensor数据类型 import tensorflow as tf import numpy as np A = [1,2,3] B = np.array([1,2,3]) C = tf.convert_to_tensor(A 阅读全文
posted @ 2022-02-26 11:30 图神经网络 阅读(609) 评论(0) 推荐(0) 编辑
摘要:1、numpy 乘法运算中 "*" 是数组元素逐个计算具体代码如下: a = np.array([[1,2],[3,4]]) b = np.array([[1,2],[3,4]]) print(a) print(b) print(a*b) """ [[1 2] [3 4]] [[1 2] [3 4] 阅读全文
posted @ 2022-02-26 11:10 图神经网络 阅读(387) 评论(0) 推荐(0) 编辑
摘要:计算代码时间 timeit.timeit(stmt='pass', setup='pass', timer=, number=1000000, globals=None) 创建一个Timer实例,并运行代码进行计时,默认将代码执行一百万次。 stmt是要执行的代码,字符串形式,多行就多个字符串。se 阅读全文
posted @ 2022-02-26 00:53 图神经网络 阅读(344) 评论(0) 推荐(0) 编辑
摘要:函数简介 torch.autograd.Variable是Autograd的核心类,它封装了Tensor,并整合了反向传播的相关实现(tensor变成variable之后才能进行反向传播求梯度?用变量.backward()进行反向传播之后,var.grad中保存了var的梯度) x = Variab 阅读全文
posted @ 2021-12-20 09:50 图神经网络 阅读(178) 评论(0) 推荐(0) 编辑
摘要:前言 dataloader 本质是一个可迭代对象,使用 iter() 访问,不能使用 next() 访问; 使用 iter(dataloader) 返回的是一个迭代器,然后可以使用 next 访问; 也可以使用 `for inputs, labels in dataloaders` 进行可迭代对象的 阅读全文
posted @ 2021-12-20 09:17 图神经网络 阅读(201) 评论(0) 推荐(0) 编辑
摘要:结论 >>> a = np.array([[1, 2], [3, 4]]) >>> np.mean(a) # 将上面二维矩阵的每个元素相加除以元素个数(求平均数) 2.5 >>> np.mean(a, axis=0) # axis=0,计算每一列的均值 array([ 2., 3.]) >>> np 阅读全文
posted @ 2021-12-18 21:13 图神经网络 阅读(104) 评论(0) 推荐(0) 编辑
摘要:https://mp.weixin.qq.com/s/Gp0EdenNxO0pcUPfvgmrOw 阅读全文
posted @ 2021-11-18 18:41 图神经网络 阅读(61) 评论(0) 推荐(0) 编辑
摘要:1. 定义 数学公式为 Loss = -w * [p * log(q) + (1-p) * log(1-q)] ,其中p、q分别为理论标签、实际预测值,w为权重。这里的log对应数学上的ln。 PyTorch对应函数为: torch.nn.BCELoss(weight=None, size_aver 阅读全文
posted @ 2021-11-04 21:20 图神经网络 阅读(1799) 评论(0) 推荐(0) 编辑
摘要:博主电脑 R7000P 由于8852是刚出的支持wifi6的无线网卡,因此只有Windows驱动,而Linux 用只能自己编译驱动,好在不麻烦。 本驱动置只支持5.4及以上内核,请确认。 安装必要工具: sudo apt-get update sudo apt-get install make gc 阅读全文
posted @ 2021-11-01 14:36 图神经网络 阅读(3371) 评论(0) 推荐(0) 编辑
摘要:1 打开cmd窗口命令行: pip install jupyterthemes 查看所有可用的主题: usename$ jt -l Available Themes: chesterish grade3 monokai oceans16 onedork solarizedd solarizedl 选 阅读全文
posted @ 2021-10-27 22:28 图神经网络 阅读(127) 评论(0) 推荐(0) 编辑
摘要:张量 Tensors 1、torch.is_tensor torch.is_tensor(obj) 用法:判断是否为张量,如果是 pytorch 张量,则返回 True。 参数:obj (Object) – 判断对象 例子: torch.is_tensor(torch.rand(2,3)) True 阅读全文
posted @ 2021-10-20 23:17 图神经网络 阅读(525) 评论(0) 推荐(0) 编辑
摘要:import torch #cuda是否可用 torch.cuda.is_available() 结果: True #返回当前设备索引 torch.cuda.current_device() 结果: 0 #返回GPU的数量 torch.cuda.device_count() 结果: 1 #返回gpu 阅读全文
posted @ 2021-10-20 18:37 图神经网络 阅读(347) 评论(0) 推荐(0) 编辑
摘要:Example1: for input, target in dataset: optimizer.zero_grad() output = model(input) loss = loss_fn(output, target) loss.backward() optimizer.step() Ex 阅读全文
posted @ 2021-10-20 17:36 图神经网络 阅读(118) 评论(0) 推荐(0) 编辑
摘要:参考:官方 1. 均匀分布 torch.nn.init.uniform_(tensor, a=0.0, b=1.0) 解释: Fills the input Tensor with values drawn from the uniform distribution $\mathcal{U}(a, 阅读全文
posted @ 2021-10-20 16:53 图神经网络 阅读(1470) 评论(0) 推荐(0) 编辑
摘要:假设有如下模型 net = nn.Sequential(nn.Linear(2, 1)) 现在要获取其参数值和参数名称 方法一: for parm in net[0].parameters(): print(parm) 结果: Parameter containing: tensor([[-0.07 阅读全文
posted @ 2021-10-20 11:12 图神经网络 阅读(2167) 评论(0) 推荐(0) 编辑
摘要:Tensor 和 NumPy 相互转换常使用 numpy() 和 from_numpy() 。需要注意的是: 这两个函数所产生的 Tensor 和 NumPy 中的数组共享相同的内存(所以他们之间的转换很快),改变其中一个时另一个也会改变! Tensor 转 Numpy 数组 a = torch.o 阅读全文
posted @ 2021-10-20 10:51 图神经网络 阅读(834) 评论(0) 推荐(0) 编辑
摘要:参考:官方文档 源码 官方文档 nn.Sequential A sequential container. Modules will be added to it in the order they are passed in the constructor. Alternatively, an o 阅读全文
posted @ 2021-10-20 10:33 图神经网络 阅读(5917) 评论(0) 推荐(2) 编辑

Live2D