摘要: model.eval()和torch.no_grad()的区别 https://blog.csdn.net/qq_41813454/article/details/135129279 import torch import torch.nn as nn import torch.nn.functio 阅读全文
posted @ 2024-08-25 12:08 不是孩子了 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 1、nn.Parameter函数 2、torch.mm 和torch.matmul区别 都是 PyTorch 中用于矩阵乘法的函数,但它们在使用上有细微的差别 import torch import torch.nn as nn import torch.nn.functional as F cla 阅读全文
posted @ 2024-08-25 11:41 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: 使用torch.nn.LazyLinear(output)实现延迟初始化 import torch import torch.nn as nn class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() 阅读全文
posted @ 2024-08-25 11:18 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240825110451280-1080924502.png) 阅读全文
posted @ 2024-08-25 11:04 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240825110338159-1534763745.png) ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240825110353076-1835101190.png) ![](https:// 阅读全文
posted @ 2024-08-25 11:04 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: torch.rand和torch.randn的区别: 阅读全文
posted @ 2024-08-25 10:49 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: nn.ReLU()是构造了一个ReLU对象,并不是函数调用,而F.ReLU()是函数调用 类似于这样来构造我们的层和块,可以比直接用nn.Sequential有更高的灵活性。当然我们也可以在我们的class中使用nn.Sequential,这样组合使用也可以提高灵活性 阅读全文
posted @ 2024-08-24 16:24 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824110544748-426795508.png) ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824110559950-1478485665.png) ![](https://i 阅读全文
posted @ 2024-08-24 11:06 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824104121626-183918958.png) ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824104135789-956014415.png) 阅读全文
posted @ 2024-08-24 10:41 不是孩子了 阅读(2) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240824101535077-245617055.png) 阅读全文
posted @ 2024-08-24 10:15 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑