摘要: VScode使用Tips(不定期更新): 1、代码自动换行 https://blog.csdn.net/weixin_42689147/article/details/87366004 2、解决打开新文件会覆盖旧文件的问题 文件 - 首选项 - 设置 - 搜索show tabs,然后找到 Workb 阅读全文
posted @ 2021-10-03 18:04 SethDeng 阅读(52) 评论(0) 推荐(0) 编辑
摘要: Torch中的梯度计算 torch中训练顺序大致如下: 1、optimizer.zero_grad() # 将模型的参数梯度初始化为0 2、outputs=model(inputs) # 前向传播计算预测值 3、loss = cost(outputs, y_train) # 计算当前损失 4、los 阅读全文
posted @ 2021-10-03 18:03 SethDeng 阅读(466) 评论(0) 推荐(0) 编辑
摘要: 终止Torch程序 1、应使用 Ctrl + C 在训练中直接终止进程,Ctrl + Z 只是挂起而已! 2、若是多卡训练时终止程序,有时会出现子进程仍占用显存,可通过以下操作释放显存: nvidia-smi # 查看GPU占用情况 ps ax # 查看GPU上进程情况 sudo kill -9 N 阅读全文
posted @ 2021-10-03 18:01 SethDeng 阅读(261) 评论(0) 推荐(0) 编辑
摘要: Multi-GPU原理 torch单机多卡基本原理:使用多张卡的GPU单元来加速运算(实例如下): 假设我们一次性读入一个batch的数据, 其大小为[16, 10, 5],我们有四张卡可以使用。那么计算过程遵循以下步骤: 1、pytorch先把初始模型同步放到4个GPU中 2、将数据分为4份,按照 阅读全文
posted @ 2021-10-03 18:00 SethDeng 阅读(155) 评论(0) 推荐(0) 编辑
摘要: nn.Conv2d() & nn.Max_pool2d() & nn.BatchNorm2d()& nn.Dropout2d() nn.Conv2d(): 一个二维卷积层的输入张量为(\(N, C_{in}, H, W\)),输出为 (\(N, C_{out}, H, W\)),分别为:批数据量、通 阅读全文
posted @ 2021-10-03 17:58 SethDeng 阅读(568) 评论(0) 推荐(0) 编辑
摘要: 训练时间统计 1 引入time模块 import time 2 在epoch循环开头处加入 begin = time.time() 3 在epoch循环末尾处加入 time_cost = time.time() - begin print('Training complete in {:.0f}m 阅读全文
posted @ 2021-10-03 17:55 SethDeng 阅读(75) 评论(0) 推荐(0) 编辑