摘要: 本节笔记内容具体是学习tensorboard中的两个方法分别是scalar和histogram,一共分为3个部分:(1)首先学习SummaryWriter类;(2)其次,学习两个基本方法记录标量add_scalar和直方图可视化add_histogram;(3)最后,使用scalar和histogr 阅读全文
posted @ 2020-08-19 22:06 Selena白桃 阅读(920) 评论(0) 推荐(0) 编辑
摘要: 前面的课程学习了优化器的概念,优化器中有很多超参数如学习率lr,momentum动量、weight_decay系数,这些超参数中最重要的就是学习率。学习率可以直接控制模型参数更新的步伐,此外,在整个模型训练过程中学习率也不是一成不变的,而是可以调整变化的。本节内容就可以分为以下3方面展开,分别是:( 阅读全文
posted @ 2020-08-19 22:01 Selena白桃 阅读(8610) 评论(0) 推荐(2) 编辑
摘要: 前面学习过了Pytorch中优化器optimizer的基本属性和方法,优化器optimizer的主要功能是 “管理模型中的可学习参数,并利用参数的梯度grad以一定的策略进行更新”。本节内容分为4部分,(1)、(2)首先了解2个重要概念Learning rate学习率和momentum动量,(3)在 阅读全文
posted @ 2020-08-19 21:59 Selena白桃 阅读(543) 评论(1) 推荐(0) 编辑
摘要: 前面我们学习过了损失函数,损失函数Loss是衡量模型输出与真实标签之间的差异的。有了损失函数Loss,通过Loss根据一定的策略 来更新模型中的参数使得损失函数Loss逐步降低;这便是优化器optimizer的任务。本节优化器optimizer主要包括3方面内容,分别是(1)什么是优化器,优化器的定 阅读全文
posted @ 2020-08-19 21:57 Selena白桃 阅读(1622) 评论(0) 推荐(1) 编辑
摘要: 5、nn.L1Loss 回归任务中常用的损失函数。 功能:计算模型输出inputs与真实标签target之差的绝对值 \[ L_n=\vert x_n-y_n\vert \] 6、nn.MSELoss 回归任务中常用的损失函数。 功能:计算模型输出inputs与target之差的平方 \[ L_n= 阅读全文
posted @ 2020-08-19 21:56 Selena白桃 阅读(901) 评论(0) 推荐(1) 编辑