上一页 1 2 3 4 5 6 7 8 9 ··· 74 下一页
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824101535077-245617055.png) 阅读全文
posted @ 2024-08-24 10:15 不是孩子了 阅读(3) 评论(0) 推荐(0) 编辑
摘要: import torch from torch import nn from d2l import torch as d2l batch_size = 256 # 准备数据 train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size) 阅读全文
posted @ 2024-08-24 10:14 不是孩子了 阅读(3) 评论(0) 推荐(0) 编辑
摘要: 1、Relu函数 2、sigmoid函数 3、tanh函数 阅读全文
posted @ 2024-08-24 09:24 不是孩子了 阅读(6) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/qq_43799400/article/details/131202148 写代码遇到问题 1、使用data.DataLoader时如果使用多进程num_workers,会报错 其原因可能是 https://blog.csdn.net/KaelCui/ar 阅读全文
posted @ 2024-08-23 16:49 不是孩子了 阅读(6) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240823110428017-1897449347.png) ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240823110545020-1371704625.png) ![](https:// 阅读全文
posted @ 2024-08-23 11:08 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: python中*运算符的使用 用于将可迭代对象(如列表或元组)的元素解压缩为单独的参数 当我们从Dataloader取出来的时候,又会将压缩为的单独参数分开 import torch from torch.utils import data # 准备数据 true_w = torch.tensor( 阅读全文
posted @ 2024-08-23 10:12 不是孩子了 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 1、注意 = 和 -=在梯度更新时的区别 def minbatch_sgd(params, lr, batch_size): with torch.no_grad(): for param in params: param = param - lr*param.grad / batch_size p 阅读全文
posted @ 2024-08-22 17:42 不是孩子了 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 对于axis=0和axis=1和keepdim=True的理解 阅读全文
posted @ 2024-08-22 11:36 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: torch.cat操作 广播机制 tensor和numpy的转换 对NA数据的处理 阅读全文
posted @ 2024-08-22 11:00 不是孩子了 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 数据的读取方式 1、如果数据量比较小,直接读入内存,通过data[i]获取 2、如果数据量很大,我们不能直接读入内存,比如数据有很多文件,我们可以将文件名存储到一个文件,通过names[i]获取文件名,然后再去读取数据 dataloader加载器 多线程的错误问题 在linux多线程是通过fork创 阅读全文
posted @ 2024-08-14 21:36 不是孩子了 阅读(8) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 74 下一页