深度学习基础课:“判断性别”Demo需求分析和初步设计(下2)
大家好~我开设了“深度学习基础班”的线上课程,带领同学从0开始学习全连接和卷积神经网络,进行数学推导,并且实现可以运行的Demo程序
线上课程资料:
本节课录像回放1
加QQ群,获得ppt等资料,与群主交流讨论:106047770
本系列文章为线上课程的复盘,每上完一节课就会同步发布对应的文章
本文为第二节课:“判断性别”Demo需求分析和初步设计(下2)的复盘文章
本课程系列文章可进入索引查看:
深度学习基础课系列文章索引
回顾相关课程内容
- 第二节课:“判断性别”Demo需求分析和初步设计(下1)
- 为什么引入损失函数?
- 损失函数的表达式是什么?
- 有了损失函数,如何具体判断得到一组权重、偏移是合适的呢?
- 什么是随机梯度下降?
- 更新权重、偏移的梯度下降公式是什么?
主问题:如何求梯度
-
对于“判断性别”的Demo,𝐸可以是什么函数?
答: -
如何求\(\frac{dE}{dw_{53}}\)?
答:
参考上面的公式,可知:
-
如何求\(\frac{dE}{db_{5}}\)?
答:与上面类似 -
如何求\(\frac{dE}{dw_{31}}\)?
答:
任务:根据梯度下降算法实现训练
-
标签、特征是什么?
标签是我们要预测的事物,即男/女;
特征是输入变量,即身高和体重; -
已知4个有标签样本(同时包含特征和标签)用于训练,2个无标签样本用于推理
-
请根据梯度下降算法,实现NeuralNetwork_train的train函数?
- 如何判断是否达到了希望的结果(即收敛)?
答:打印损失函数返回的误差loss,如果小于0.1,则收敛 - 如何实现?
答:答案:NeuralNetwork_train_answer
- 如何判断是否达到了希望的结果(即收敛)?
-
请运行程序
- 有什么问题?
第一轮开始的loss就无限大
- 有什么问题?
任务:改进训练,使其收敛
- 请找出loss无限大的原因?
答:输出(y5)太大 - 应该如何改进?
答:改进激活函数,使用sigmoid替代线性函数:
它的导数为:
- 修改代码,运行结果?
答:修改后的相关代码为:
let _activateFunc = x => {
1. /. (1. +. Js.Math.exp(-.x))
}
let _deriv_Sigmoid = x => {
let fx = _activateFunc(x)
fx *. (1. -. fx)
}
修改后的完整代码为:NeuralNetwork_train_fix_activate_answer
运行结果:loss一直不变
(补充:完整代码有bug:Neural_forward_answer->_activateFunc应该使用sigmoid函数。修改后的完整代码为:NeuralNetwork_train_fix_activate_answer_fix。修改后的运行结果是loss会先下降到0.25然后就不变了,而不是一直不变)
-
为什么loss一直不变?
答:输入太大->隐藏层的激活函数的导数为0->梯度为0->loss不变 -
应该如何改进?
答:将样本零均值化 -
修改代码,运行结果?
答:修改后的相关代码为:
let _mean = values => {
values->ArraySt.reduceOneParam((. sum, value) => {
sum +. value
}, 0.) /. ArraySt.length(values)->Obj.magic
}
let _zeroMean = features => {
let weightMean = features->ArraySt.map(feature => feature.weight)->_mean->Js.Math.floor->Obj.magic
let heightMean = features->ArraySt.map(feature => feature.height)->_mean->Js.Math.floor->Obj.magic
features->ArraySt.map(feature => {
weight: feature.weight -. weightMean,
height: feature.height -. heightMean,
})
}
let features = features->_zeroMean
let state = state->train(features, labels)
let featuresForInference = [
{
weight: 89.,
height: 190.,
},
{
weight: 60.,
height: 155.,
},
]
featuresForInference->_zeroMean->Js.Array.forEach(feature => {
inference(state, feature)->Js.log
}, _)
这里的内容是错误的,可忽略
运行结果:loss可能会逐渐增大
- 为什么会出现loss逐渐增大的情况?
答:学习率太大
如下图所示:
因为步长过大,可能会跨过谷底 - 如何解决?
答:有两个方法:
减小学习率,增加轮数;
使用优化算法动态调整学习率。
这里使用前者 - 修改代码,运行结果?
答:修改后的相关代码为:
let train = (state: state, features: array<feature>, labels: array<label>): state => {
//let learnRate = 0.1
//let epochs = 1000
let learnRate = 0.001
let epochs = 100000
...
修改后的完整代码为:NeuralNetwork_train_fix_zeroMean_answer
运行结果:大部分情况下loss会收敛
(补充:完整代码仍然有同样的bug:Neural_forward_answer->_activateFunc应该使用sigmoid函数。修改后的完整代码为:NeuralNetwork_train_fix_zeroMean_answer_fix。修改后的运行结果是loss基本上都会收敛,所以基本上不会出现“loss可能会逐渐增大”的情况,所以就不需要“减小学习率,增加轮数;”)
总结
- 请回答所有主问题?
- 如何根据梯度下降算法实现训练代码?
- 会出现什么问题?如何解决?