摘要:
nn.ReLU()是构造了一个ReLU对象,并不是函数调用,而F.ReLU()是函数调用 类似于这样来构造我们的层和块,可以比直接用nn.Sequential有更高的灵活性。当然我们也可以在我们的class中使用nn.Sequential,这样组合使用也可以提高灵活性 阅读全文
摘要:
![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824110544748-426795508.png) ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824110559950-1478485665.png) ![](https://i 阅读全文
摘要:
![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824104121626-183918958.png) ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824104135789-956014415.png) 阅读全文
摘要:
![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824101535077-245617055.png) 阅读全文
摘要:
import torch from torch import nn from d2l import torch as d2l batch_size = 256 # 准备数据 train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size) 阅读全文
摘要:
1、Relu函数 2、sigmoid函数 3、tanh函数 阅读全文