torch.load中map_location和model.to的关系

  参考资料:

  https://discuss.pytorch.org/t/is-map-location-in-torch-load-and-model-load-state-dict-independent-from-device-in-to/99983

  我的问题和参考资料中的一样,在使用torch.load的时候有一个map_location参数,此时可以将checkpoint等加载到对应的device上。但是,如果接下来初始化一个model,并且使用model.load_state_dict的话,后续打印model的device仍然是在cpu上。这意味着我们仍然需要再接上一个model.to(XX)。

  参考资料中一个大佬给出了解释:

The map_location changes the device of the Tensors in the state dict that is returned.
But when you load_state_dict(), then these values are loaded (and only values) into the model. But that does not change the model’s device! you will need to move the model itself with .to() if you want to have it on a different device.

  翻译过来就是使用torch.load加载的都是tensor,比如:这些tensor如果之前是在device("cuda:1")上被保存的,那么load的时候pytorch仍然会试图将tensor加载到第一个显卡上。但是,load_state_dict不管你的state_dict放在哪里,它只load值,所以如果你的model在cpu上初始化了,它只是从GPU卡上把tensor(state_dict)的值copy到cpu的model上,model所处的device还是cpu。

  综上所述,只有to指令才能让model换device!

posted @ 2022-09-13 19:09  思念殇千寻  阅读(234)  评论(0编辑  收藏  举报