摘要:
1、注意 = 和 -=在梯度更新时的区别 def minbatch_sgd(params, lr, batch_size): with torch.no_grad(): for param in params: param = param - lr*param.grad / batch_size p 阅读全文
摘要:
对于axis=0和axis=1和keepdim=True的理解 阅读全文
摘要:
torch.cat操作 广播机制 tensor和numpy的转换 对NA数据的处理 阅读全文