摘要: MNIST数据集是手写数字数据集,它是分类任务的数据集。所有图像是28x28大小的黑白图像,分为训练集和测试集两个数据集, 训练集有60000张图像,测试集有10000张图像,图像的内容为0~9的手写数字。 1 from torchvision.datasets import MNIST 2 imp 阅读全文
posted @ 2021-08-14 13:08 奋斗的小仔 阅读(499) 评论(0) 推荐(0)
摘要: 均方误差(Mean Squared Error)是度量模型性能的一种方法。 假设m是样本集的总个数 是第i个样本的预测值,是第i个样本的真实值。 pytorch中的均方误差函数 torch.nn.functional.mse_loss(input, # 预测target, # 目标) 代码实现: > 阅读全文
posted @ 2021-08-13 14:29 奋斗的小仔 阅读(7262) 评论(0) 推荐(0)
摘要: 在某些情况下,不需要求出当前张量对所有产生该张量的叶子节点的梯度,这时可以使用torch.autograd.grad()函数。 torch.autograd.grad( outputs, # 计算图的数据结果张量--它就是需要进行求导的函数 inputs, # 需要对计算图求导的张量--它是进行求导 阅读全文
posted @ 2021-08-13 13:40 奋斗的小仔 阅读(4019) 评论(0) 推荐(1)
摘要: PyTorch会根据计算过程来自动生成动态图,然后可以根据动态图的创建过程进行反向传播,计算得到每个结点的梯度值。 为了能够记录张量的梯度,在创建张量的时候可以设置参数requires_grad = True,或者创建张量后调用requires_grad_()方法。 >>> x = torch.ra 阅读全文
posted @ 2021-08-12 15:50 奋斗的小仔 阅读(1611) 评论(0) 推荐(0)
摘要: softmax是非线性激活函数的一种。它将神经元的输出变换到(0,1)的区间内。 需要注意的是对应的是分子中的指数项,而与分母是无关的。 下面对进行求导, 这里分为两种情况。 j==i 另一种情况是 j!=i 就是要注意对求导时,S的分子的指数项哪一项,刚好是还是别的项,这将直接影响求导的最终结果。 阅读全文
posted @ 2021-08-11 13:09 奋斗的小仔 阅读(964) 评论(0) 推荐(0)
摘要: 交叉熵(cross entropy):用于度量两个概率分布间的差异信息。交叉熵越小,代表这两个分布越接近。 函数表示(这是使用softmax作为激活函数的损失函数表示): (是真实值,是预测值。) 命名说明: pred=F.softmax(logits),logits是softmax函数的输入,pr 阅读全文
posted @ 2021-08-10 14:52 奋斗的小仔 阅读(1245) 评论(0) 推荐(0)
摘要: 使用这个链接中介绍的方法解决了:https://zhuanlan.zhihu.com/p/65345581 我的anaconda安装在的是D盘,所以不是链接中的路径,如果不会找路径的话,也可以直接打开pycharm,打开一个工程 点开它,然后找到torch 右击torch,查看路径 下面红色框出来的 阅读全文
posted @ 2021-07-13 15:01 奋斗的小仔 阅读(869) 评论(0) 推荐(0)
摘要: 我出现这个错误的原因是,在我导入文件时,默认的文件类型都是ImageFile 右击文件(注意是文件,不是Group),选中第一行Options for File... 将File Type设置为正确的文件类型。 阅读全文
posted @ 2020-04-10 15:48 奋斗的小仔 阅读(11295) 评论(0) 推荐(1)
摘要: 错误示例: 解决: 打开debug 对框中的内容进行修改,结果如上体所示。下面的STM32F103VE是使用的芯片型号,根据自己的情况修改。 阅读全文
posted @ 2020-03-31 21:58 奋斗的小仔 阅读(2496) 评论(0) 推荐(0)
摘要: keil编译时出现:..\CM3\stm32f10x.h(303): error: #67: expected a "}"错误 这是在使用STM32时遇到的问题。 因为我选择的芯片与预编译符不匹配造成的。 工程选择的芯片是:STM32F103RB 在Options下的C/C++的选项卡中是STM32 阅读全文
posted @ 2020-03-29 17:09 奋斗的小仔 阅读(581) 评论(0) 推荐(0)