Fork me on GitHub
摘要: Distributed data parallel 1. Preface ​ 首先了解DP(data parallel),DP的本质是先将整个batch加载到主线程上,然后将batch分成小块传输到别的GPU进行工作。(其batchsize为总batchsize) ​ DP将模型参数默认放在GPU- 阅读全文
posted @ 2021-10-27 16:54 Rser_ljw 阅读(409) 评论(0) 推荐(0) 编辑
摘要: 深入研究不平衡回归问题 针对深度不平衡回归这一问题,提出了两种方法: 标签分布平滑 特征分布平滑 传统的解决方案 基于数据的解决方案 对少数样本过采样、对多数样本欠采样 基于模型的解决方案 对损失函数的重加权 一些学习技巧: transfer learning,meta-learning, two- 阅读全文
posted @ 2021-10-27 16:54 Rser_ljw 阅读(532) 评论(0) 推荐(0) 编辑