吴恩达机器学习笔记(四) —— BP神经网络

 

 

 

主要内容:

一.模型简介

二.一些变量所代表的含义

三.代价函数

四.Forward Propagation

五.Back Propagation

六.算法流程

 

待解决问题:

视频中通过指出:当特征变多时(或者非线性),利用logistic回归模型解决问题将导致计算量很大,即算法复杂度很高。然后就此引出神经网路,所以说神经网路在解决多特征(或者非线性)问题上是比logistic回归更优的。但为什么呢?有什么合理的解释?

 

 

 

一.模型简介

1.最简单的神经网络就是只有输入层和输出层:

2.稍微复杂一点(中间的被称为隐藏层):

3.其中,当前层的输出作为下一层每一个结点的输入(的一部分),即n*m的全相连,且每一条边都带有权重,就是说我们要训练的参数。

4.在每一层当中,除了我们预先设定的结点之外,还在最上面添加一个结点(bias unit)作为偏移值,其值为1。

5.hθ(x)为Logistic回归函数。

 

 

二.一些变量所代表的含义

为了方便描述神经网络,对一些变量进行描述(注意:此处的上标表示第几层,从1开始):

x:最原始的输入

a:当前层的输出,其中a1(上标) = x

z:z = θx

有如下关系:

 

 

三.代价函数

1.代价函数:

2.向量化后:

 

 

四.Forward Propagation

foward propagation就是将输入x,经过一层层的神经网络,最后到达输出层,并输出结果hθ(x)。

一张图可以很好地解释其过程:

 

五.Back Propagation(求梯度)

我们可以通过foward propagation求出输出结果hθ(x),接下来就是要减少误差的而进行参数调整了,一贯的做法是梯度下降。

可知Logistic回归的梯度下降的表达式为:

由于神经网络也是利用Logistic回归的sigmoid函数,那么其梯度下降的表达式也应该类似。

可知最后一层,也就是输出层的输出结果为hθ(x),也就是预测值。那么误差就是hθ(x)-Y,对应了上式中的“(hθ(x)-Y)”,记δ=hθ(x)-Y。

但是,我们只知道最后一层的δ,即hθ(x)-Y,而隐藏层的δ却不能够直接看出来,那应该如何呢?

可知输出层的hθ(x),是倒数第二层通过一定的规则计算出来的;反过来,倒数第二层计算所出现的误差,也可以通过输出层hθ(x)与真实值的误差反过来求。其中最重要的就是参数θ,因为它规定着输入(或输出)在当前结点所占的比例。

知道了Back Propagation的思想后,就需要着手具体如何求出δ了,其方法就是微积分中的“链式求导”。可知当前层的输出a(l)(可以看做一个变量),通过相关的映射(或者说函数)得出下一层的输出a(l+1)。此时把a(l+1) 看成y,a(l)看成x,而y = f(x)。我么已知y所造成的误差为δ,而y又是x的函数,所以x所造成的误差就等于:δ*f'(x)。与Logistic回归不同的是:神经网络在两层之间存在着n*m的全相连,每一条边都代表着a-->b的权重,即参数θ。在求误差δ的时候,应该乘上参数θ,如下:

因此,一直往前递推,就可以求出各层(输入层不需要求,因为总为0)的误差δ,即“(hθ(x)-Y)”。梯度就可以求出来了,之后就轮到梯度下降大显身手了。

求梯度的过程总结:

 

 

六.算法流程:

 

 

 

 

posted on 2018-07-17 10:07  h_z_cong  阅读(3819)  评论(0编辑  收藏  举报

导航