摘要:
按上面来得到的随机数不同,加上注释就会得到相同的随机数。 阅读全文
摘要:
为什么不进行多卡同步? BatchNorm的实现都是只考虑了single gpu。也就是说BN使用的均值和标准差是单个gpu算的,相当于缩小了mini-batch size。至于为什么这样实现,1)因为没有sync的需求,因为对于大多数vision问题,单gpu上的mini-batch已经够大了,完 阅读全文
摘要:
class torchvision.transforms.Compose(转换) 多个将transform组合起来使用。 class torchvision.transforms.CenterCrop(size) 将给定的PIL.Image进行中心切割,得到给定的size,size可以是tuple, 阅读全文