08 2022 档案

摘要:https://blog.csdn.net/TracelessLe/article/details/115579791 阅读全文
posted @ 2022-08-25 15:06 小丑_jk 阅读(20) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/feikudai8460/article/details/107035480/ 阅读全文
posted @ 2022-08-22 22:33 小丑_jk 阅读(83) 评论(0) 推荐(0) 编辑
摘要:https://jishuin.proginn.com/p/763bfbd6d2b0 阅读全文
posted @ 2022-08-19 11:05 小丑_jk 阅读(9) 评论(0) 推荐(0) 编辑
摘要:#不修改类别数checkpoint = torch.load("./save_model_other/best_model_pre.pth") print(checkpoint.state_dict().keys()) model.load_state_dict(checkpoint.state_d 阅读全文
posted @ 2022-08-16 15:19 小丑_jk 阅读(208) 评论(0) 推荐(0) 编辑
摘要:''' 实际上就是字典的操作,那么字典的操作,哪些层不要,打印出层的名字就可以了,例如 模型参数的某些层的权重不要,那么重构一个字典参数就可以了,for k in torch.load("**.pth').keys(): 打印出来按照名字删除 键值对, 所以字典的pop删除操作也是可以的, 多卡训练 阅读全文
posted @ 2022-08-08 13:42 小丑_jk 阅读(302) 评论(0) 推荐(0) 编辑