上一页 1 2 3 4 5 6 7 8 9 10 ··· 12 下一页
摘要: 人脸识别列表 待办https://blog.csdn.net/weixin_41449637/article/details/103344479 阅读全文
posted @ 2020-02-26 19:02 程序员成长 阅读(108) 评论(0) 推荐(0) 编辑
摘要: SGD 讲解,梯度下降的做法,随机性。理解反向传播 待办 Stochastic Gradient Descent 随机梯度下降没有用Random这个词,因为它不是完全的随机,而是服从一定的分布的,只是具有随机性在里面。其中的Stochastic的意思是从x到y的映射: x→yx\to y x→y给定一个xxx并不能确定地知道输出yyy,而是服从一定的概率分布。与之对应的是Determini... 阅读全文
posted @ 2020-02-26 18:59 程序员成长 阅读(682) 评论(0) 推荐(0) 编辑
摘要: detach() 使用和.detach()和.data的区别 、cpu()函数的作用 待办detach使用https://blog.csdn.net/qq_27825451/article/details/96837905?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.... 阅读全文
posted @ 2020-02-26 18:22 程序员成长 阅读(3165) 评论(0) 推荐(0) 编辑
摘要: 连续张量理解和contiguous()方法使用,view和reshape的区别 待办内存共享:下边的x内存布局是从0开始的,y内存布局,不是从0开始的张量 For example: when you call transpose(), PyTorch doesn't generate new tensor with new layout, it just modifies meta in... 阅读全文
posted @ 2020-02-26 18:04 程序员成长 阅读(1313) 评论(0) 推荐(0) 编辑
摘要: visdom使用监视训练过程的应用,viz.line参数说明 待办viz = Visdom()viz.line([0.], [0.], win='train_loss', opts=dict(title='train loss'))viz.line([[0.0, 0.0]], [0.], win='test', opts=dict(title='test loss&acc.', ... 阅读全文
posted @ 2020-02-26 17:40 程序员成长 阅读(2547) 评论(0) 推荐(0) 编辑
摘要: pytorch之max()函数 待办返回对应给定中最大值的索引,方便进行和target结果的索引进行比较索引方式见下https://blog.csdn.net/liuweiyuxiang/article/details/84668269 阅读全文
posted @ 2020-02-26 16:26 程序员成长 阅读(835) 评论(0) 推荐(0) 编辑
摘要: 测试准确率计算方法说明 pre.eq(target).float().sum().item() 待办pred = logits.argmax(dim=1) correct += pred.eq(target).float().sum().item() 这句意思就是输出最大值的索引位置,这个索引位置和真实值的索引位置比较相等的做统计就是这个批次准确的个数用来做统计分析 阅读全文
posted @ 2020-02-26 15:34 程序员成长 阅读(4183) 评论(0) 推荐(2) 编辑
摘要: batch_idx作用 待办batch_idx * len(data) 这里的batch_idx 就是数组分组之后的组号,len(data)就是每组的数据量,这个式子表示的就是总共已经训练的数据总数做显示,根据这个已经训练好的得到百分占比,损失函数计算https://www.cnblogs.com/lishikai/p/12366561.html 平均准确度和平均损失的计算 阅读全文
posted @ 2020-02-26 14:49 程序员成长 阅读(993) 评论(0) 推荐(0) 编辑
摘要: batch_idx作用 待办batch_idx * len(data) 这里的batch_idx 就是数组分组之后的组号,len(data)就是每组的数据量,这个式子表示的就是总共已经训练的数据总数 阅读全文
posted @ 2020-02-26 14:29 程序员成长 阅读(345) 评论(0) 推荐(0) 编辑
摘要: 为什么需要每次计算梯度都要清空 待办根据pytorch中的backward()函数的计算,当网络参量进行反馈时,梯度是被积累的而不是被替换掉;但是在每一个batch时毫无疑问并不需要将两个batch的梯度混合起来累积,因此这里就需要每个batch设置一遍zero_grad 了。其实这里还可以补充的一点是,如果不是每一个batch就清除掉原有的梯度,而是比如说两个batch再清除掉梯度,这是一种... 阅读全文
posted @ 2020-02-26 14:08 程序员成长 阅读(1689) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 12 下一页