摘要: nn.ReLU()是构造了一个ReLU对象,并不是函数调用,而F.ReLU()是函数调用 类似于这样来构造我们的层和块,可以比直接用nn.Sequential有更高的灵活性。当然我们也可以在我们的class中使用nn.Sequential,这样组合使用也可以提高灵活性 阅读全文
posted @ 2024-08-24 16:24 不是孩子了 阅读(5) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824110544748-426795508.png) ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824110559950-1478485665.png) ![](https://i 阅读全文
posted @ 2024-08-24 11:06 不是孩子了 阅读(3) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824104121626-183918958.png) ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824104135789-956014415.png) 阅读全文
posted @ 2024-08-24 10:41 不是孩子了 阅读(2) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824101535077-245617055.png) 阅读全文
posted @ 2024-08-24 10:15 不是孩子了 阅读(3) 评论(0) 推荐(0) 编辑
摘要: import torch from torch import nn from d2l import torch as d2l batch_size = 256 # 准备数据 train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size) 阅读全文
posted @ 2024-08-24 10:14 不是孩子了 阅读(3) 评论(0) 推荐(0) 编辑
摘要: 1、Relu函数 2、sigmoid函数 3、tanh函数 阅读全文
posted @ 2024-08-24 09:24 不是孩子了 阅读(6) 评论(0) 推荐(0) 编辑