会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
outthinker
博客园
首页
新随笔
联系
订阅
管理
2019年12月9日
pytorch使用DataParallel并行化负载不均衡问题
摘要: 使用DataParallel进行并行化时的结构如下: 在上图第一行第四个步骤中,GPU-1 其实汇集了所有 GPU 的运算结果。这个对于多分类问题还好,但如果是自然语言处理模型就会出现问题,导致 GPU-1 汇集的梯度过大,直接爆掉。 那么就要想办法实现多 GPU 的负载均衡,方法就是让 GPU-1
阅读全文
posted @ 2019-12-09 14:21 outthinker
阅读(4073)
评论(0)
推荐(0)
编辑
公告