随笔- 54  文章- 0  评论- 1  阅读- 16787 

随笔分类 -  NN_learning

余弦退火
摘要:1. 学习率调整 https://www.cnblogs.com/kailugaji/p/11230474.html function lr = fcn(t,Lr_max,Lr_min,decay_steps) n=floor(t/decay_steps); cosine_decay = 0.5 * 阅读全文
posted @ 2022-07-12 18:26 Real_Yuan 阅读(157) 评论(0) 推荐(0) 编辑
深度学习中Epoch、Batch以及Batch size
摘要:Batch gradient descent,批梯度下降 第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。 这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习. 随机梯度下降,stochastic gradient desce 阅读全文
posted @ 2022-07-12 15:15 Real_Yuan 阅读(279) 评论(0) 推荐(0) 编辑
学习率调整CLR
摘要:三种 Cyclical Learning Rate (CLR) 周期性学习率遵从从小到大再从大到小,然后又是从小到大再从大到小,如此这般循环下去。 1个Cycle定义为从小到大再从大到小的变化。1个Cycle由两个step_size组成,见下图1: 对于CLR,需要设定一个最大的学习率(max_lr 阅读全文
posted @ 2022-07-11 15:59 Real_Yuan 阅读(128) 评论(0) 推荐(0) 编辑
机器学习与深度学习
摘要:深度学习在本质上属于可统计不可推理的统计机器学习范畴。很多时候呈现出来的就是一个黑箱(Black Box)系统,其性能很好,却不知道为何而好,缺乏解释性。深度学习中的“end-to-end(端到端):输入的是原始数据(始端),然后输出的直接就是最终目标(末端),中间过程不可知。 深度学习的学习对象同 阅读全文
posted @ 2022-07-05 14:50 Real_Yuan 阅读(67) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示