# PyTorch查看模型和数据是否在GPU上
data = torch.zeros([1,2])
print(data.device)
#此外也可以用.is_cuda也可以判断模型和数据是否在GPU上,例如:data.is_cuda
1.查看tensor所在的设备
data = data.cuda()#将数据转移到gpu上print(data.device) # 输出:cuda:0
data = data.cpu()#将数据转移到cpu上print(data.device) # 输出:cpu
2. 查看model所在的设备
model = model.cuda()#将模型转移到gpu上print(next(model.parameters()).device) # 输出:cuda:0
model = model.cpu()#将模型转移到cpu上print(next(model.parameters()).device) # 输出:cpu
3.Pytorch中将模型和张量加载到GPU的常用方法有两种。
方式1
# 如果GPU可用,将模型和张量加载到GPU上if torch.cuda.is_available():
model = model.cuda()
x = x.cuda()
y = y.cuda()
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 上周热点回顾(3.3-3.9)
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」