摘要: 张量与GPU 不同GPU之间操作 神经网络与GPU 总结 我们可以指定用于存储和计算的设备,例如CPU或GPU。默认情况下,数据在主内存中创建,然后使用CPU进行计算。 深度学习框架要求计算的所有输入数据都在同一设备上,无论是CPU还是GPU。 不经意地移动数据可能会显著降低性能。一个典型的错误如下 阅读全文
posted @ 2023-11-03 12:00 Yohoc 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 以PyTorch为例 class MLP(nn.Module): def __init__(self): super().__init__() self.hidden = nn.Linear(20, 256) self.output = nn.Linear(256, 10) def forward( 阅读全文
posted @ 2023-11-03 11:33 Yohoc 阅读(29) 评论(0) 推荐(0) 编辑
摘要: 深度学习成功背后的一个因素是神经网络的灵活性: 我们可以用创造性的方式组合不同的层,从而设计出适用于各种任务的架构。 例如,研究人员发明了专门用于处理图像、文本、序列数据和执行动态规划的层。 有时我们会遇到或要自己发明一个现在在深度学习框架中还不存在的层。 在这些情况下,必须构建自定义层。本节将展示 阅读全文
posted @ 2023-11-03 11:13 Yohoc 阅读(9) 评论(0) 推荐(0) 编辑