03 2022 档案

摘要: 阅读全文
posted @ 2022-03-29 10:51 今天记笔记了吗 阅读(57) 评论(0) 推荐(0) 编辑
摘要:input = torch.randn(1, 3, 8, 9) print(input) 输出:1这个张量,其中是3个通道,8行,9列的数据(从外面往里面数) tensor([[[[-1.3645, 1.3841, 0.9907, 0.3150, -0.2379, -0.3170, -0.0550, 阅读全文
posted @ 2022-03-27 16:25 今天记笔记了吗 阅读(82) 评论(0) 推荐(0) 编辑
摘要:CLASStorch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1, padding_ 阅读全文
posted @ 2022-03-26 16:33 今天记笔记了吗 阅读(119) 评论(0) 推荐(0) 编辑
摘要:pytorch之ImageFoldertorchvision已经预先实现了常用的Dataset,包括前面使用过的CIFAR-10,以及ImageNet、COCO、MNIST、LSUN等数据集,可通过诸如torchvision.datasets.CIFAR10来调用。在这里介绍一个会经常使用到的Dat 阅读全文
posted @ 2022-03-24 15:46 今天记笔记了吗 阅读(321) 评论(0) 推荐(0) 编辑
摘要:http://blog.csdn.net/majinlei121/article/details/46742339 http://blog.csdn.net/augusdi/article/details/9028365 缩小图像(或称为下采样(subsampled)或降采样(downsampled 阅读全文
posted @ 2022-03-24 15:00 今天记笔记了吗 阅读(424) 评论(0) 推荐(0) 编辑
摘要:定义 有监督学习是机器学习任务的一种。它从有标记的训练数据中推导出预测函数。有标记的训练数据是指每个训练实例都包括输入和期望的输出。一句话:给定数据,预测标签。 无监督学习是机器学习任务的一种。它从无标记的训练数据中推断结论。最典型的无监督学习就是聚类分析,它可以在探索性数据分析阶段用于发现隐藏的模 阅读全文
posted @ 2022-03-23 11:06 今天记笔记了吗 阅读(1003) 评论(0) 推荐(0) 编辑
摘要:np.prod()函数用来计算所有元素的乘积,对于有多个维度的数组可以指定轴,如axis=1指定计算每一行的乘积。 x.view(x.size(0), -1) 首先,在pytorch中的view()函数就是用来改变tensor的形状的,例如将2行3列的tensor变为1行6列,其中-1表示会自适应的 阅读全文
posted @ 2022-03-22 09:58 今天记笔记了吗 阅读(398) 评论(0) 推荐(0) 编辑
摘要:1.简介 torch.autograd.Variable是Autograd的核心类,它封装了Tensor,并整合了反向传播的相关实现 Variable和tensor的区别和联系 Variable是篮子,而tensor是鸡蛋,鸡蛋应该放在篮子里才能方便拿走(定义variable时一个参数就是tenso 阅读全文
posted @ 2022-03-21 21:18 今天记笔记了吗 阅读(470) 评论(0) 推荐(0) 编辑
摘要:GAN概述 在讲GAN之前,先讲一个小趣事,你知道GAN是怎么被发明的吗?据Ian Goodfellow自己说: 之前他一直在研究生成模型,可能是一时兴起,有一天他在酒吧喝酒时,在酒吧里跟朋友讨论起生成模型。然后Ian Goodfellow想到GAN的思想,跟朋友说你应该这么做这么做这么做,我打赌一 阅读全文
posted @ 2022-03-21 21:17 今天记笔记了吗 阅读(237) 评论(0) 推荐(0) 编辑
摘要:1)神经元(Neuron)——就像形成我们大脑基本元素的神经元一样,神经元形成神经网络的基本结构。想象一下,当我们得到新信息时我们该怎么做。当我们获取信息时,我们一般会处理它,然后生成一个输出。类似地,在神经网络的情况下,神经元接收输入,处理它并产生输出,而这个输出被发送到其他神经元用于进一步处理, 阅读全文
posted @ 2022-03-20 20:53 今天记笔记了吗 阅读(105) 评论(0) 推荐(0) 编辑