CNN Mnist

参考链接:https://www.codeproject.com/articles/16650/neural-network-for-recognition-of-handwritten-digi#Introduction

网络结构

Mnist的网络结构有5层:
(1)第一层为输入层,输入层的图片大小为29*29,也就是说,输入层的节点有841=29*29个;
(2)第二层为卷积层,卷积核的大小为5*5,每次偏移两个像素。所以第二层的特征图大小为13*13。这一层使用了6个不同的卷积核,所以有6个特征图。所以这一层的节点的个数为1014=13*13*6。权值的个数为156=(5*5+1)*6个,加1是因为有个偏移值。
(3)第三层的卷积层,卷积核大小5*5,每次偏移两个像素。所以第三层的特征图大小为5*5。这一层使用了50个不同的卷积核,所以有50个特征图。所以这一层的节点的个数为1250=5*5*50。权值的个数为7800=(5*5+1)*6*50个。
(4)第四层为全连接层,有100个节点,所以权值有125100=(1250+1)*100。
(5)第五层为全连接层,也是输出层,有10个节点,所以权值有1010=(100+1)*10。


参数更新推导

我们用n表示层数。对于某一层n,定义一些变量如下:
(1)$x_{n}$,这一层的输出;
(2)$y_{n}$,这一层的输入;
(3)$W_{n}^{ij}$,连接这一层的节点i和上一层的节点j的权值.
(4)$C_{n}$,这一层的节点数
另外
(1)定义激活函数为F。其中$y_{n}^{i}=\sum_{j=0}^{C_{n-1}}W_{n}^{ij}x_{n-1}^{j}$,j=0为偏移值,$x_{n}^{i}=F(y_{n}^{i})$。使用的激活函数为$F(y)=\frac{e^{y}-e^{-y}}{e^{y}+e^{-y}}$,其中$\frac{dF}{dy}=1-F(x)^{2}=1-x^{2}$。这里定义$G(x)=1-x^{2}$
(2)定义误差为$E$,GroundTrue为T,最后一层(我们这里就是第五层的输出)输出为$x_{n}$,$E=\frac{1}{2}\sum (x_{n}^{i}-T^{i})^{2}$。所以$\frac{\partial E}{\partial x_{n}^{i}}=x_{n}^{i}-T^{i}$。

现在假设我们知道了第n层的$\frac{\partial E}{\partial x_{n}^{i}}$.下面计算$\frac{\partial E}{\partial y_{n}^{i}}$.
$\frac{\partial E}{\partial y_{n}^{i}}=\frac{\partial E}{\partial x_{n}^{i}}\frac{\partial x_{n}^{i}}{\partial y_{n}^{i}}=\frac{\partial E}{\partial x_{n}^{i}}G(x_{n}^{i})$
接着计算$\frac{\partial E}{\partial W_{n}^{ij}}$
$\frac{\partial E}{\partial W_{n}^{ij}}=\frac{\partial E}{\partial y_{n}^{i}}\frac{\partial y_{n}^{i}}{\partial W_{n}^{ij}}=\frac{\partial E}{\partial y_{n}^{i}}x_{n-1}^{j}$
现在可以更新权值了:$(W_{n}^{ij})_{new}=(W_{n}^{ij})_{old}-LearningRate\cdot \frac{\partial E}{\partial W_{n}^{ij}}$。学习率$LearningRate$通常是一个很小的值。
现在计算$\frac{\partial E}{\partial x_{n-1}^{i}}$.
$\frac{\partial E}{\partial x_{n-1}^{i}}=\frac{\partial E}{\partial y_{n}}\frac{\partial y_{n}}{\partial x_{n-1}^{i}}=\sum_{k=1}^{C_{n}}W_{n}^{ki}\frac{\partial E}{\partial y_{n}^{k}}$
这样就能重新按照上面的式子计算$n-1$层了。

一直迭代这个过程,直到第一层。

 

posted @ 2017-02-07 14:59  朝拜明天19891101  阅读(347)  评论(0编辑  收藏  举报