07 2021 档案
发表于 2021-07-28 17:10阅读:407评论:0推荐:0
摘要:结论: torch.max(),不指定dim参数,返回输入张量中所有数据的最大值; 如果指定dim参数,则返回按照指定维度的最大值和各最大值对应的位置 torch.argmax(),不指定dim,然后输入张量中所有数据最大值位置(按照张量被拉伸为1为向量算); 如果指定dim,返回指定维度的最大值位
阅读全文 »
发表于 2021-07-28 11:12阅读:2343评论:0推荐:0
摘要:** 结论 torch.repeat: 输入张量的从后往前的后面维度对应按照repeat中大小进行repeat操作(所以 输入张量维度>= repeat维度)。 假设输入张量为(a,b,c),repeat(x,y),则为b维度repeat x倍,c维度repeat y倍;最终输出维度为(a, bx,
阅读全文 »
发表于 2021-07-27 20:27阅读:233评论:0推荐:0
摘要:结论 torch.stack ,类似并联,结果是在相应的维度会增加一维; 所以要求每个tensor大小相等 torch.cat 类似串联,结果是在相应的维度值会增加,所以要求扩展的维度大小相等 1.torch.stack l = [] for i in range(0,3): x = torch.r
阅读全文 »
发表于 2021-07-25 22:25阅读:135评论:0推荐:0
摘要:广播机制的原则 如果两个数组的后缘维度(trailing dimension,即从末尾开始算起的维度)的轴长度相符,或其中的一方的长度为1,则认为它们是广播兼容的。广播会在缺失和(或)长度为1的维度上进行。 这句话乃是理解广播的核心。广播主要发生在两种情况,一种是两个数组的维数不相等,但是它们的后缘
阅读全文 »
发表于 2021-07-17 17:02阅读:111评论:0推荐:0
摘要:import random # 等概率函数,随机取0,1,出来概率为不等概率 def equle_fun(p): zero_num = [0] * int(p * 100) one_num = [1] * int((1-p) * 100) zero_num.extend(one_num) retur
阅读全文 »
发表于 2021-07-16 09:50阅读:175评论:0推荐:0
摘要:1、下载混淆包,或者手动下载 git clone https://github.com/astrand/pyobfuscate.git 2、安装 cd pyobfuscate/ python setup.py install 3、混淆处理 pyobfuscate example.py 4、编译 py
阅读全文 »
发表于 2021-07-16 01:05阅读:233评论:0推荐:0
摘要:#1.更新nvidia驱动 https://www.nvidia.cn/geforce/drivers/ 选择自己电脑显卡的型号(注意:笔记本的话选择型号后面带Notebooks的),下载最新的驱动安装包,点击下一步安装即可。 #2.CUDA10安装 https://developer.nvidia
阅读全文 »
发表于 2021-07-07 15:44阅读:242评论:0推荐:0
摘要:memory_profiler是干嘛的 This is a python module for monitoring memory consumption of a process as well as line-by-line analysis of memory consumption for
阅读全文 »
发表于 2021-07-06 00:29阅读:324评论:0推荐:0
摘要:4.2 从0实现 import torch import torchvision def get_data(batch_size=50): trans = torchvision.transforms.ToTensor() mnist_train = torchvision.datasets.Fas
阅读全文 »
发表于 2021-07-06 00:27阅读:55评论:0推荐:0
摘要:import torch import torchvision def get_data(batch_size=50): trans = torchvision.transforms.ToTensor() mnist_train = torchvision.datasets.FashionMNIST
阅读全文 »
发表于 2021-07-01 18:51阅读:260评论:0推荐:0
摘要:3.1 线性模型 3.1.1 机器学习模型 机器学习关键要素:训练数据,模型,损失函数,优化方法 3.1.2 线性回归损失函数 线性函数的损失函数为平方误差函数。 使用平方误差函数的推导是: 1、线性回归函数目标函数y = W *x +b 2、假设训练样本包含噪声,假设噪声为高斯分布 3、包含噪声的
阅读全文 »
发表于 2021-07-01 00:40阅读:260评论:0推荐:0
摘要:2.1、张量初始化 import torch 几种初始化方式 torch.zeros((3,4)), torch.ones((1,2)), torch.tensor([[1,2,3], [4,54,5]]), torch.randn(5,6) 2.1.2、张量元素操作 1.对于应常数的+,-,乘,除
阅读全文 »