03 2022 档案

摘要:问题起因:笔者想把别人的torch的代码复制到笔者的代码框架下,从而引起的显存爆炸问题 该bug在困扰了笔者三天的情况下,和学长一同解决了该bug,故在此记录这次艰辛的debug之路。 尝试思路1:检查是否存在保留loss的情况下是否使用了 item() 取值,经检查,并没有 尝试思路2:按照网上的 阅读全文
posted @ 2022-03-30 23:21 ISGuXing 阅读(9328) 评论(0) 推荐(1) 编辑
摘要:当我们需要加载之前训练的checkpoint的时候,有时候会发现之前能训练的代码无法继续训练。 这时候很有可能加载优化器的步骤在加载模型前面,这样可能会导致优化器的参数仍然在CPU上,因此代码需要由原来改为: #将: optimizer, scheduler = self.get_optimizer 阅读全文
posted @ 2022-03-24 14:37 ISGuXing 阅读(492) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示