torch.max() 梯度回传问题

对于2个网络生成的loss,经过torch.max操作后形成一个loss,此时进行loss.backward则对应的是取max的网络的梯度更新。

posted @ 2021-12-01 16:55  呦呦南山  阅读(1038)  评论(0编辑  收藏  举报