神经网络课堂测试

石家庄铁道大学2024年春季

  2021 级大数据技术与应用课堂测试

-神经网络计算过程

课程名称:大数据技术与应用  任课教师王建民     

 

1、用自己的话说明深度学习训练三部群正向传播,反向传播,梯度下降的基本功能和原理。

 
   

 

 

 

 

 

 

2、请问人工神经网络中为什么ReLu要好过于tanhsigmoid function

 

 

 

 

3、为什么引入非线性激励函数?

 

 

4、根据样例:

 

 

 

 

计算出模型正向传播、反向传播的各个神经元的输入与输出。模型中的非线性函数采用Relu,方向传播的损失函数结果为Y

其中 X1 =1X2 = -1,要求计算Z_1, Z_2, Z_3,并写出计算过程。

 

 

 

1

正向传播: 将数据传入到相应的神经网络,从输入数据开始,在神经网络内部,一直到输出结果。每个步骤都会对输入的数据进行加权求和,然后通过激活函数来产生输出,这个输出随后作为下一层的输入继续传递。最后,我们得到网络对于给定输入数据的预测结果。

反向传播: 当得到了相应的预测结果,反向传播来计算预测误差也就是实际输出与预计输出的差异。从输出层开始,向输入层方向每一步计算每个神经元对于最终误差的影响程度。通过链式法则来实现,先计算输出层的误差,然后逐层向前计算每一层神经元的误差。这样,就可以知道哪些权重需要调整以及如何调整它们用来减少误差。

梯度下降:用上一步计算出的误差梯度来更新神经网络中的权重和偏置。权重的改变是通过沿着误差梯度的反方向进行的,是为了减少损失函数的值。损失函数比较了实际和预测的差异。通过不断地更新权重,性能会逐渐提高,直到达到某个满意的结果或条件停止。

2

不存在梯度饱和的问题,计算非常简单,线性性质,它可以避免梯度消失,不会饱和较高的激活水平,性能和计算效率高。

3

就是更能理解和处理现实问题,让模型能处理现实世界中的复杂问题。

4

z_1:1*w_1+(-1)*w_2=1 * 1 + (-1) * 2 = -1

a_1:max(z_1,0)=0

z_2:1*w_3+(-1)*w_4= 1*(-1)+ (-1) * 1 = -2

a_2: max(z_2,0)=0

z_3:0*1=0*1=0

Y=0

 

posted @ 2024-04-10 08:40  风·华正茂  阅读(10)  评论(0编辑  收藏  举报