【深度学习系列】卷积神经网络CNN原理详解(一)——基本原理(1)

上篇文章我们给出了用paddlepaddle来做手写数字识别的示例,并对网络结构进行到了调整,提高了识别的精度。有的同学表示不是很理解原理,为什么传统的机器学习算法,简单的神经网络(如多层感知机)都可以识别手写数字,我们要采用卷积神经网络CNN来进行别呢?CNN到底是怎么识别的?用CNN有哪些优势呢?我们下面就来简单分析一下。在讲CNN之前,为避免完全零基础的人看不懂后面的讲解,我们先简单回顾一下传统的神经网络的基本知识。

神经网络的预备知识

为什么要用神经网络?

  • 特征提取的高效性。

大家可能会疑惑,对于同一个分类任务,我们可以用机器学习的算法来做,为什么要用神经网络呢?大家回顾一下,一个分类任务,我们在用机器学习算法来做时,首先要明确feature和label,然后把这个数据"灌"到算法里去训练,最后保存模型,再来预测分类的准确性。但是这就有个问题,即我们需要实现确定好特征,每一个特征即为一个维度,特征数目过少,我们可能无法精确的分类出来,即我们所说的欠拟合,如果特征数目过多,可能会导致我们在分类过程中过于注重某个特征导致分类错误,即过拟合。

举个简单的例子,现在有一堆数据集,让我们分类出西瓜和冬瓜,如果只有两个特征:形状和颜色,可能没法分区来;如果特征的维度有:形状、颜色、瓜瓤颜色、瓜皮的花纹等等,可能很容易分类出来;如果我们的特征是:形状、颜色、瓜瓤颜色、瓜皮花纹、瓜蒂、瓜籽的数量,瓜籽的颜色、瓜籽的大小、瓜籽的分布情况、瓜籽的XXX等等,很有可能会过拟合,譬如有的冬瓜的瓜籽数量和西瓜的类似,模型训练后这类特征的权重较高,就很容易分错。这就导致我们在特征工程上需要花很多时间和精力,才能使模型训练得到一个好的效果。然而神经网络的出现使我们不需要做大量的特征工程,譬如提前设计好特征的内容或者说特征的数量等等,我们可以直接把数据灌进去,让它自己训练,自我“修正”,即可得到一个较好的效果。

  • 数据格式的简易性

在一个传统的机器学习分类问题中,我们“灌”进去的数据是不能直接灌进去的,需要对数据进行一些处理,譬如量纲的归一化,格式的转化等等,不过在神经网络里我们不需要额外的对数据做过多的处理,具体原因可以看后面的详细推导。

  • 参数数目的少量性

在面对一个分类问题时,如果用SVM来做,我们需要调整的参数需要调整核函数,惩罚因子,松弛变量等等,不同的参数组合对于模型的效果也不一样,想要迅速而又准确的调到最适合模型的参数需要对背后理论知识的深入了解(当然,如果你说全部都试一遍也是可以的,但是花的时间可能会更多),对于一个基本的三层神经网络来说(输入-隐含-输出),我们只需要初始化时给每一个神经元上随机的赋予一个权重w和偏置项b,在训练过程中,这两个参数会不断的修正,调整到最优质,使模型的误差最小。所以从这个角度来看,我们对于调参的背后理论知识并不需要过于精通(只不过做多了之后可能会有一些经验,在初始值时赋予的值更科学,收敛的更快罢了)

有哪些应用?

应用非常广,不过大家注意一点,我们现在所说的神经网络,并不能称之为深度学习,神经网络很早就出现了,只不过现在因为不断的加深了网络层,复杂化了网络结构,才成为深度学习,并在图像识别、图像检测、语音识别等等方面取得了不错的效果。

基本网络结构

一个神经网络最简单的结构包括输入层、隐含层和输出层,每一层网络有多个神经元,上一层的神经元通过激活函数映射到下一层神经元,每个神经元之间有相对应的权值,输出即为我们的分类类别。

详细数学推导

去年中旬我参考吴恩达的UFLDL和mattmazur的博客写了篇文章详细讲解了一个最简单的神经网络从前向传播到反向传播的直观推导,大家可以先看看这篇文章--一文弄懂神经网络中的反向传播法--BackPropagation

优缺点

前面说了很多优点,这里就不多说了,简单说说缺点吧。我们试想一下如果加深我们的网络层,每一个网络层增加神经元的数量,那么参数的个数将是M*N(m为网络层数,N为每层神经元个数),所需的参数会非常多,参数一多,模型就复杂了,越是复杂的模型就越不好调参,也越容易过拟合。此外我们从神经网络的反向传播的过程来看,梯度在反向传播时,不断的迭代会导致梯度越来越小,即梯度消失的情况,梯度一旦趋于0,那么权值就无法更新,这个神经元相当于是不起作用了,也就很难导致收敛。尤其是在图像领域,用最基本的神经网络,是不太合适的。后面我们会详细讲讲为啥不合适。

为什么要用卷积神经网络?

传统神经网络的劣势

前面说到在图像领域,用传统的神经网络并不合适。我们知道,图像是由一个个像素点构成,每个像素点有三个通道,分别代表RGB颜色,那么,如果一个图像的尺寸是(28,28,1),即代表这个图像的是一个长宽均为28,channel为1的图像(channel也叫depth,此处1代表灰色的图像)。如果使用全连接的网络结构,即,网络中的神经与与相邻层上的每个神经元均连接,那就意味着我们的网络有28 * 28 =784个神经元,hidden层采用了15个神经元,那么简单计算一下,我们需要的参数个数(w和b)就有:784*15*10+15+10=117625个,这个参数太多了,随便进行一次反向传播计算量都是巨大的,从计算资源和调参的角度都不建议用传统的神经网络。(评论中有同学对这个参数计算不太理解,我简单说一下:图片是由像素点组成的,用矩阵表示的,28*28的矩阵,肯定是没法直接放到神经元里的,我们得把它“拍平”,变成一个28*28=784 的一列向量,这一列向量和隐含层的15个神经元连接,就有784*15=11760个权重w,隐含层和最后的输出层的10个神经元连接,就有11760*10=117600个权重w,再加上隐含层的偏置项15个和输出层的偏置项10个,就是:117625个参数了)

卷积神经网络是什么?

三个基本层

  •  卷积层(Convolutional Layer)

上文提到我们用传统的三层神经网络需要大量的参数,原因在于每个神经元都和相邻层的神经元相连接,但是思考一下,这种连接方式是必须的吗?全连接层的方式对于图像数据来说似乎显得不这么友好,因为图像本身具有“二维空间特征”,通俗点说就是局部特性。譬如我们看一张猫的图片,可能看到猫的眼镜或者嘴巴就知道这是张猫片,而不需要说每个部分都看完了才知道,啊,原来这个是猫啊。所以如果我们可以用某种方式对一张图片的某个典型特征识别,那么这张图片的类别也就知道了。这个时候就产生了卷积的概念。举个例子,现在有一个4*4的图像,我们设计两个卷积核,看看运用卷积核后图片会变成什么样。

由上图可以看到,原始图片是一张灰度图片,每个位置表示的是像素值,0表示白色,1表示黑色,(0,1)区间的数值表示灰色。对于这个4*4的图像,我们采用两个2*2的卷积核来计算。设定步长为1,即每次以2*2的固定窗口往右滑动一个单位。以第一个卷积核filter1为例,计算过程如下:

1 feature_map1(1,1) = 1*1 + 0*(-1) + 1*1 + 1*(-1) = 1 
2 feature_map1(1,2) = 0*1 + 1*(-1) + 1*1 + 1*(-1) = -1 
3 ``` 
4 feature_map1(3,3) = 1*1 + 0*(-1) + 1*1 + 0*(-1) = 2

可以看到这就是最简单的内积公式。feature_map1(1,1)表示在通过第一个卷积核计算完后得到的feature_map的第一行第一列的值,随着卷积核的窗口不断的滑动,我们可以计算出一个3*3的feature_map1;同理可以计算通过第二个卷积核进行卷积运算后的feature_map2,那么这一层卷积操作就完成了。feature_map尺寸计算公式:[ (原图片尺寸 -卷积核尺寸)/ 步长 ] + 1。这一层我们设定了两个2*2的卷积核,在paddlepaddle里是这样定义的:

conv_pool_1 = paddle.networks.simple_img_conv_pool(
        input=img,
        filter_size=3,
        num_filters=2,
        num_channel=1,
        pool_stride=1,
        act=paddle.activation.Relu())

这里调用了networks里simple_img_conv_pool函数,激活函数是Relu(修正线性单元),我们来看一看源码里外层接口是如何定义的:

1 def simple_img_conv_pool(input,
 2                          filter_size,
 3                          num_filters,
 4                          pool_size,
 5                          name=None,
 6                          pool_type=None,
 7                          act=None,
 8                          groups=1,
 9                          conv_stride=1,
10                          conv_padding=0,
11                          bias_attr=None,
12                          num_channel=None,
13                          param_attr=None,
14                          shared_bias=True,
15                          conv_layer_attr=None,
16                          pool_stride=1,
17                          pool_padding=0,
18                          pool_layer_attr=None):
19     """
20     Simple image convolution and pooling group.
21     Img input => Conv => Pooling => Output.
22     :param name: group name.
23     :type name: basestring
24     :param input: input layer.
25     :type input: LayerOutput
26     :param filter_size: see img_conv_layer for details.
27     :type filter_size: int
28     :param num_filters: see img_conv_layer for details.
29     :type num_filters: int
30     :param pool_size: see img_pool_layer for details.
31     :type pool_size: int
32     :param pool_type: see img_pool_layer for details.
33     :type pool_type: BasePoolingType
34     :param act: see img_conv_layer for details.
35     :type act: BaseActivation
36     :param groups: see img_conv_layer for details.
37     :type groups: int
38     :param conv_stride: see img_conv_layer for details.
39     :type conv_stride: int
40     :param conv_padding: see img_conv_layer for details.
41     :type conv_padding: int
42     :param bias_attr: see img_conv_layer for details.
43     :type bias_attr: ParameterAttribute
44     :param num_channel: see img_conv_layer for details.
45     :type num_channel: int
46     :param param_attr: see img_conv_layer for details.
47     :type param_attr: ParameterAttribute
48     :param shared_bias: see img_conv_layer for details.
49     :type shared_bias: bool
50     :param conv_layer_attr: see img_conv_layer for details.
51     :type conv_layer_attr: ExtraLayerAttribute
52     :param pool_stride: see img_pool_layer for details.
53     :type pool_stride: int
54     :param pool_padding: see img_pool_layer for details.
55     :type pool_padding: int
56     :param pool_layer_attr: see img_pool_layer for details.
57     :type pool_layer_attr: ExtraLayerAttribute
58     :return: layer's output
59     :rtype: LayerOutput
60     """
61     _conv_ = img_conv_layer(
62         name="%s_conv" % name,
63         input=input,
64         filter_size=filter_size,
65         num_filters=num_filters,
66         num_channels=num_channel,
67         act=act,
68         groups=groups,
69         stride=conv_stride,
70         padding=conv_padding,
71         bias_attr=bias_attr,
72         param_attr=param_attr,
73         shared_biases=shared_bias,
74         layer_attr=conv_layer_attr)
75     return img_pool_layer(
76         name="%s_pool" % name,
77         input=_conv_,
78         pool_size=pool_size,
79         pool_type=pool_type,
80         stride=pool_stride,
81         padding=pool_padding,
82         layer_attr=pool_layer_attr)

我们在Paddle/python/paddle/v2/framework/nets.py 里可以看到simple_img_conv_pool这个函数的定义:

 1 def simple_img_conv_pool(input,
 2                          num_filters,
 3                          filter_size,
 4                          pool_size,
 5                          pool_stride,
 6                          act,
 7                          pool_type='max',
 8                          main_program=None,
 9                          startup_program=None):
10     conv_out = layers.conv2d(
11         input=input,
12         num_filters=num_filters,
13         filter_size=filter_size,
14         act=act,
15         main_program=main_program,
16         startup_program=startup_program)
17 
18     pool_out = layers.pool2d(
19         input=conv_out,
20         pool_size=pool_size,
21         pool_type=pool_type,
22         pool_stride=pool_stride,
23         main_program=main_program,
24         startup_program=startup_program)
25     return pool_out

可以看到这里面有两个输出,conv_out是卷积输出值,pool_out是池化输出值,最后只返回池化输出的值。conv_out和pool_out分别又调用了layers.py的conv2d和pool2d,去layers.py里我们可以看到conv2d和pool2d是如何实现的:

conv2d:

def conv2d(input,
       num_filters,
       name=None,
       filter_size=[1, 1],
       act=None,
       groups=None,
       stride=[1, 1],
       padding=None,
       bias_attr=None,
       param_attr=None,
       main_program=None,
       startup_program=None):
helper = LayerHelper('conv2d', **locals())
dtype = helper.input_dtype()

num_channels = input.shape[1]
if groups is None:
    num_filter_channels = num_channels
else:
    if num_channels % groups is not 0:
        raise ValueError("num_channels must be divisible by groups.")
    num_filter_channels = num_channels / groups

if isinstance(filter_size, int):
    filter_size = [filter_size, filter_size]
if isinstance(stride, int):
    stride = [stride, stride]
if isinstance(padding, int):
    padding = [padding, padding]

input_shape = input.shape
filter_shape = [num_filters, num_filter_channels] + filter_size

std = (2.0 / (filter_size[0]**2 * num_channels))**0.5
filter = helper.create_parameter(
    attr=helper.param_attr,
    shape=filter_shape,
    dtype=dtype,
    initializer=NormalInitializer(0.0, std, 0))
pre_bias = helper.create_tmp_variable(dtype)

helper.append_op(
    type='conv2d',
    inputs={
        'Input': input,
        'Filter': filter,
    },
    outputs={"Output": pre_bias},
    attrs={'strides': stride,
           'paddings': padding,
           'groups': groups})

pre_act = helper.append_bias_op(pre_bias, 1)

return helper.append_activation(pre_act)

pool2d:

 def pool2d(input,
 2            pool_size,
 3            pool_type,
 4            pool_stride=[1, 1],
 5            pool_padding=[0, 0],
 6            global_pooling=False,
 7            main_program=None,
 8            startup_program=None):
 9     if pool_type not in ["max", "avg"]:
10         raise ValueError(
11             "Unknown pool_type: '%s'. It can only be 'max' or 'avg'.",
12             str(pool_type))
13     if isinstance(pool_size, int):
14         pool_size = [pool_size, pool_size]
15     if isinstance(pool_stride, int):
16         pool_stride = [pool_stride, pool_stride]
17     if isinstance(pool_padding, int):
18         pool_padding = [pool_padding, pool_padding]
19 
20     helper = LayerHelper('pool2d', **locals())
21     dtype = helper.input_dtype()
22     pool_out = helper.create_tmp_variable(dtype)
23 
24     helper.append_op(
25         type="pool2d",
26         inputs={"X": input},
27         outputs={"Out": pool_out},
28         attrs={
29             "poolingType": pool_type,
30             "ksize": pool_size,
31             "globalPooling": global_pooling,
32             "strides": pool_stride,
33             "paddings": pool_padding
34         })
35

大家可以看到,具体的实现方式还调用了layers_helper.py:

  1 import copy
  2 import itertools
  3 
  4 from paddle.v2.framework.framework import Variable, g_main_program, \
  5     g_startup_program, unique_name, Program
  6 from paddle.v2.framework.initializer import ConstantInitializer, \
  7     UniformInitializer
  8 
  9 
 10 class LayerHelper(object):
 11     def __init__(self, layer_type, **kwargs):
 12         self.kwargs = kwargs
 13         self.layer_type = layer_type
 14         name = self.kwargs.get('name', None)
 15         if name is None:
 16             self.kwargs['name'] = unique_name(self.layer_type)
 17 
 18     @property
 19     def name(self):
 20         return self.kwargs['name']
 21 
 22     @property
 23     def main_program(self):
 24         prog = self.kwargs.get('main_program', None)
 25         if prog is None:
 26             return g_main_program
 27         else:
 28             return prog
 29 
 30     @property
 31     def startup_program(self):
 32         prog = self.kwargs.get('startup_program', None)
 33         if prog is None:
 34             return g_startup_program
 35         else:
 36             return prog
 37 
 38     def append_op(self, *args, **kwargs):
 39         return self.main_program.current_block().append_op(*args, **kwargs)
 40 
 41     def multiple_input(self, input_param_name='input'):
 42         inputs = self.kwargs.get(input_param_name, [])
 43         type_error = TypeError(
 44             "Input of {0} layer should be Variable or sequence of Variable".
 45             format(self.layer_type))
 46         if isinstance(inputs, Variable):
 47             inputs = [inputs]
 48         elif not isinstance(inputs, list) and not isinstance(inputs, tuple):
 49             raise type_error
 50         else:
 51             for each in inputs:
 52                 if not isinstance(each, Variable):
 53                     raise type_error
 54         return inputs
 55 
 56     def input(self, input_param_name='input'):
 57         inputs = self.multiple_input(input_param_name)
 58         if len(inputs) != 1:
 59             raise "{0} layer only takes one input".format(self.layer_type)
 60         return inputs[0]
 61 
 62     @property
 63     def param_attr(self):
 64         default = {'name': None, 'initializer': UniformInitializer()}
 65         actual = self.kwargs.get('param_attr', None)
 66         if actual is None:
 67             actual = default
 68         for default_field in default.keys():
 69             if default_field not in actual:
 70                 actual[default_field] = default[default_field]
 71         return actual
 72 
 73     def bias_attr(self):
 74         default = {'name': None, 'initializer': ConstantInitializer()}
  75         bias_attr = self.kwargs.get('bias_attr', None)
 76         if bias_attr is True:
 77             bias_attr = default
 78 
 79         if isinstance(bias_attr, dict):
 80             for default_field in default.keys():
 81                 if default_field not in bias_attr:
  82                     bias_attr[default_field] = default[default_field]
 83         return bias_attr
 84 
 85     def multiple_param_attr(self, length):
 86         param_attr = self.param_attr
 87         if isinstance(param_attr, dict):
 88             param_attr = [param_attr]
 89 
 90         if len(param_attr) != 1 and len(param_attr) != length:
 91             raise ValueError("parameter number mismatch")
 92         elif len(param_attr) == 1 and length != 1:
 93             tmp = [None] * length
 94             for i in xrange(length):
 95                 tmp[i] = copy.deepcopy(param_attr[0])
  96             param_attr = tmp
 97         return param_attr
 98 
 99     def iter_inputs_and_params(self, input_param_name='input'):
100         inputs = self.multiple_input(input_param_name)
101         param_attrs = self.multiple_param_attr(len(inputs))
102         for ipt, param_attr in itertools.izip(inputs, param_attrs):
103             yield ipt, param_attr
104 
105     def input_dtype(self, input_param_name='input'):
106         inputs = self.multiple_input(input_param_name)
107         dtype = None
108         for each in inputs:
109             if dtype is None:
110                 dtype = each.data_type
111             elif dtype != each.data_type:
112                 raise ValueError("Data Type mismatch")
113         return dtype
114 
115     def create_parameter(self, attr, shape, dtype, suffix='w',
116                          initializer=None):
117         # Deepcopy the attr so that parameters can be shared in program
118         attr_copy = copy.deepcopy(attr)
119         if initializer is not None:
120             attr_copy['initializer'] = initializer
121         if attr_copy['name'] is None:
122             attr_copy['name'] = unique_name(".".join([self.name, suffix]))
123         self.startup_program.global_block().create_parameter(
124             dtype=dtype, shape=shape, **attr_copy)
125         return self.main_program.global_block().create_parameter(
126             name=attr_copy['name'], dtype=dtype, shape=shape)
127 
128     def create_tmp_variable(self, dtype):
129         return self.main_program.current_block().create_var(
130             name=unique_name(".".join([self.name, 'tmp'])),
131             dtype=dtype,
132             persistable=False)
133 
134     def create_variable(self, *args, **kwargs):
135         return self.main_program.current_block().create_var(*args, **kwargs)
136 
137     def create_global_variable(self, persistable=False, *args, **kwargs):
138         return self.main_program.global_block().create_var(
139             *args, persistable=persistable, **kwargs)
140 
141     def set_variable_initializer(self, var,   initializer):
142         assert isinstance(var, Variable)
143         self.startup_program.global_block().create_var(
144             name=var.name,
145             type=var.type,
146             dtype=var.data_type,
147             shape=var.shape,
148             persistable=True,
149             initializer=initializer)
150 
151     def append_bias_op(self, input_var, num_flatten_dims=None):
152         """
153         Append bias operator and return its output. If the user does not set 
154         bias_attr, append_bias_op will return input_var
155          
156         :param input_var: the input variable. The len(input_var.shape) is larger
157         or equal than 2.
158         :param num_flatten_dims: The input tensor will be flatten as a matrix 
159         when adding bias.
160         `matrix.shape = product(input_var.shape[0:num_flatten_dims]), product(
161                 input_var.shape[num_flatten_dims:])`
162         """
163         if num_flatten_dims is None:
164             num_flatten_dims = self.kwargs.get('num_flatten_dims', None)
165             if num_flatten_dims is None:
166                 num_flatten_dims = 1
167 
168         size = list(input_var.shape[num_flatten_dims:])
169         bias_attr = self.bias_attr()
170         if not bias_attr:
171             return input_var
172 
173         b = self.create_parameter(
174             attr=bias_attr, shape=size, dtype=input_var.data_type, suffix='b')
175         tmp = self.create_tmp_variable(dtype=input_var.data_type)
176         self.append_op(
177             type='elementwise_add',
178             inputs={'X': [input_var],
179                     'Y': [b]},
180             outputs={'Out': [tmp]})
181         return tmp
182 
183     def append_activation(self, input_var):
184         act = self.kwargs.get('act', None)
185         if act is None:
186             return input_var
187         if isinstance(act, basestring):
188             act = {'type': act}
189         tmp = self.create_tmp_variable(dtype=input_var.data_type)
190         act_type = act.pop('type')
191         self.append_op(
192             type=act_type,
193             inputs={"X": [input_var]},
194             outputs={"Y": [tmp]},
195             attrs=act)
196         return tmp

详细的源码细节我们下一节会讲这里指写一下实现的方式和调用的函数。

作者:Charlotte77

posted @ 2019-09-11 11:07  华为云官方博客  阅读(366)  评论(0编辑  收藏  举报