摘要: 1、注意 = 和 -=在梯度更新时的区别 def minbatch_sgd(params, lr, batch_size): with torch.no_grad(): for param in params: param = param - lr*param.grad / batch_size p 阅读全文
posted @ 2024-08-22 17:42 不是孩子了 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 对于axis=0和axis=1和keepdim=True的理解 阅读全文
posted @ 2024-08-22 11:36 不是孩子了 阅读(1) 评论(0) 推荐(0) 编辑
摘要: torch.cat操作 广播机制 tensor和numpy的转换 对NA数据的处理 阅读全文
posted @ 2024-08-22 11:00 不是孩子了 阅读(4) 评论(0) 推荐(0) 编辑