摘要: 一个比较简单的做法是在 loss.backward() 之后和 optimizer.step() 调用之前,添加以下几行,可以找到未使用的参数(注意区分自己特地冻结的参数): for name, param in model.named_parameters(): if param.grad is 阅读全文
posted @ 2023-02-19 14:58 龙雪 阅读(16) 评论(0) 推荐(0) 编辑