摘要: 在pytorch中,即使是有GPU的机器,它也不会自动使用GPU,而是需要在程序中显示指定。调用model.cuda(),可以将模型加载到GPU上去。这种方法不被提倡,而建议使用model.to(device)的方式,这样可以显示指定需要使用的计算资源,特别是有多个GPU的情况下。 阅读全文
posted @ 2020-10-28 14:18 pogeba 阅读(6857) 评论(0) 推荐(0) 编辑