08 2022 档案
摘要:https://blog.csdn.net/TracelessLe/article/details/115579791
阅读全文
摘要:https://blog.csdn.net/feikudai8460/article/details/107035480/
阅读全文
摘要:https://jishuin.proginn.com/p/763bfbd6d2b0
阅读全文
摘要:#不修改类别数checkpoint = torch.load("./save_model_other/best_model_pre.pth") print(checkpoint.state_dict().keys()) model.load_state_dict(checkpoint.state_d
阅读全文
摘要:''' 实际上就是字典的操作,那么字典的操作,哪些层不要,打印出层的名字就可以了,例如 模型参数的某些层的权重不要,那么重构一个字典参数就可以了,for k in torch.load("**.pth').keys(): 打印出来按照名字删除 键值对, 所以字典的pop删除操作也是可以的, 多卡训练
阅读全文