torch.load中map_location和model.to的关系
参考资料:
我的问题和参考资料中的一样,在使用torch.load的时候有一个map_location参数,此时可以将checkpoint等加载到对应的device上。但是,如果接下来初始化一个model,并且使用model.load_state_dict的话,后续打印model的device仍然是在cpu上。这意味着我们仍然需要再接上一个model.to(XX)。
参考资料中一个大佬给出了解释:
The map_location
changes the device of the Tensors in the state dict that is returned.
But when you load_state_dict()
, then these values are loaded (and only values) into the model. But that does not change the model’s device! you will need to move the model itself with .to()
if you want to have it on a different device.
翻译过来就是使用torch.load加载的都是tensor,比如:这些tensor如果之前是在device("cuda:1")上被保存的,那么load的时候pytorch仍然会试图将tensor加载到第一个显卡上。但是,load_state_dict不管你的state_dict放在哪里,它只load值,所以如果你的model在cpu上初始化了,它只是从GPU卡上把tensor(state_dict)的值copy到cpu的model上,model所处的device还是cpu。
综上所述,只有to指令才能让model换device!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)