pytorch使用不完全文档
tensorflow和pytorch环境是好的的话,链接中的logger.py拉到自己的工程里,train.py里添加相应代码,直接能用。
关于环境,小小折腾了下,大概一小时:
大概一年前用过tensorflow, mac里的环境还在,当时装的虚拟环境,由于工程中用到了caffe,在虚拟环境中编译caffe,去掉之前工程中用的caffe路径,把虚拟环境中的caffe路径添加到虚拟环境下的pythonpath
export PYTHONPATH=/Users/tensorflow虚拟环境中的caffe路径/python:$PYTHONPATH
pip install torch torchvision
然后进入python,依次import caffe torch tensorflow没问题就可以了,一个粗陋的loss曲线到手:
2. 多进程load数据:
这个折腾了一天,最开始打算用Queue实现,陷在里面半天,返回label没问题,一旦加入图像就死掉了,自己生成一个超大的数据也不行,怀疑是Queue容量有限,暂且存疑;
考虑pytorch的__getitem__就是多进程的,打算在里面判断,如果self.src_map没有对应的key就读入,有就直接用。结果在mac上一个worker没啥问题,放到服务器上拆开多个子线程工作,会一直重新读入数据,因为self.src_map是属于主进程的,主进程并不会跟子进程共享这个字典,所以对每个子进程来说self.src_map都是空的,定位到这个问题就好办,最后是用链接里面“进程之间共享数据”方法实现的:
class FaceDataSet(data.Dataset): def __init__(self, root, list, dst_size = 128, n_worker = 6): super(DataSet, self).__init__() self.all_data = [] self.dst_size = dst_size self.src_map = {} self.n_worker = n_worker fread = open(root +'/'+ list, 'r') for line in fread.readlines(): img_filename = line.strip() pt_filename = img_filename.replace('.jpg', '.txt') imgfile_fullpath = os.path.join(root, img_filename) ptfile_fullpath = os.path.join(root, pt_filename) label = np.loadtxt(ptfile_fullpath, dtype=float) #路径保存到all_data if os.path.exists(ptfile_fullpath) and os.path.exists(imgfile_fullpath): self.all_data.append(DataPath(imgfile_fullpath=imgfile_fullpath, ptfile_fullpath=ptfile_fullpath)) print time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()) +\ ' All data length: %d' % len(self.all_data) + \ " load workers:%d"%(self.n_worker) data_length = len(self.all_data) q_in = [[] for i in range(self.n_worker)] for data_idx in range(data_length): q_in[data_idx % len(q_in)].append(self.all_data[data_idx]) with multiprocessing.Manager() as MG: p_map = [ multiprocessing.Manager().dict() for i in range(self.n_worker) ] readers = [multiprocessing.Process( target=self.load_func, args=(q_in[i], p_map[i]) )\ for i in range(self.n_worker) ] for p in readers: p.start() for p in readers: p.join() # 至此,主程序会等待最后一个进程执行完 for map in p_map: #把每个子进程读取结果拼到一起 self.src_map.update(map) print time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()) + " src_map length:%d"%( len(self.src_map.keys()) ) def load_func(self, qin, pmap): for item in qin: img_path, pt_path = item img = cv2.imread(img_path) #读入数据,每个子进程读入的先放在自己的字典里 label = np.loadtxt(pt_path).astype(np.float32) pmap[img_path] = self.__get_small_img(img, label, dst_size=self.dst_size, data_aug=False)
3. 打印网络每层输出形状:
pip install torchsummary #命令行安装 from torchsummary import summary #代码 summary(model, (1, 112, 112))
4. view()的用法
define __init__: self.conv = conv2d(512,512,kernel_size=7,stride=1,pad=0,group=512) self.fc = nn.Linear(512,128) define forward(self, x): #假设batchsize = 128 x = self.conv #(128,512,1,1,) x = x.view(x.size(0), -1) #(128,512) - x.size(0)=batchsize, 按batchsize拉平 x = self.fc(x) #(128,128) return x
5. 单机多卡显存占用不均衡: 不是很明显,应该没有抓住主要矛盾,聊胜于无。
checkpoint = torch.load("checkpoint.pth", map_location=torch.device('cpu')) #map到cpu只能起到一点点效果
6. 在gpu卡n上训练的网络换卡加载报错:Attempting to deserialize object on CUDA device 4 but torch.cuda.device_count()
torch.load(model_path, map_location='cuda:0' )
7. Apex半精度训练:
虽然没有宣称的3行代码那么简单,也是很容易了,过一遍示例代码,花不到一小时可以跑起来。参考官方git quick start,完全安装没有成功,只安装了python版,然后执行下main_amp.py可以正常import了,再按示例代码添加几行即可。其他参考这里。
8. pytorch和numpy默认数据格式不一致导致的CUDNN错误:
一个大坑,从自己写的dataloader加载数据莫名其妙的报错:RuntimeError: cuDNN error: CUDNN_STATUS_BAD_PARAM;
1) 训练代码中用torch.randn()生成的数据作为input没问题,生成的数据格式是troch.float32;
2) np.loadtxt()加载数据默认是np.float64格式,pytroch网络是float,所以在执行input.to(Device)之前先input = input.float()强制转换一下;
3) np.load()加载数据保留了保存数据时候的np.float32格式,送给pytorch的dataloader之前需要astype成float64,否则会报错"RuntimmeError: Expected object of scalar type Double but got scalar type Float ....",所以在送给dataloader之前先转成np.float64,训练代码中再和第二条一样,强制转为float
总结就是dataloader需要double型的数据,网络需要float型数据,匹配一致即可。
-------------2019.4.22----------
关于环境, cuda 9.1 + anaconda2用pip install和conda install都失败,最后分别下载pytorch和vision源码
python setup.py install
装完pytorch需要重启下才能找到
torch.where和np.where的区别,另外,np.where可以缺省后面两个参数返回满足条件的索引,而torch.where省略参数会报错
for name, parameters in TEACHER.named_parameters(): print(name,parameters.size())