合集-Pytorch相关问题
摘要:背景 当我们使用pytroch的进行混合精度时,会使用scaler,来进行梯度浮点数类型的缩放。在这种情况下optimizer.step()会被scaler.step(optimizer)取代。 已知,如果梯度存在无穷值的时候,scaler会跳过这一轮次的参数更新。 又知,在参数没有更新时执行sch
阅读全文
摘要:最新编辑于:2023年11月19日15:20:30 摘要 这个年代了谁还用apex啊!Pytorch自带的不好用吗?说的就是你,Megatron! 要解决这个问题,我们需要安装和Pytorch版本一致的cuda。然后再安装apex。 先简单说下步骤: 下载cuda的安装程序,然后安装在无需root权
阅读全文