DataLoader加载数据batch_size导致batch数据量不均等报错
DataLoader函数定义如下:
DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, num_workers=0, collate_fn=default_collate, pin_memory=False, drop_last=False)
可以将drop_last改为True,drop_last为True会将多出来不足一个batch的数据丢弃。
所以就在代码里加上了这个参数为True,继续训练就不再报错了。