Python-将模型和张量加载到GPU
在配置好GPU版本的pytorch的环境后,可以先检查一下cuda是否可用
import torch device=torch.device("cuda:0" if torch.cuda.is_available() else "cpu") print(device)
或者是
torch.cuda.is_available()
然后有两种方式可以实现将模型和张量加载到GPU
model=model.to(device) x=x.to(device) y=y.to(device)
或者是
if torch.cuda.is_available(): model = model.cuda() x = x.cuda() y = y.cuda()
推荐用第一种方法
本文作者:Khru
本文链接:https://www.cnblogs.com/khrushchefox/p/16400851.html
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步