神经网络之卷积篇:详解简单卷积网络示例(A simple convolution network example)

详解简单卷积网络示例

假设有一张图片,想做图片分类或图片识别,把这张图片输入定义为x,然后辨别图片中有没有猫,用0或1表示,这是一个分类问题,来构建适用于这项任务的卷积神经网络。针对这个示例,用了一张比较小的图片,大小是39×39×3,这样设定可以使其中一些数字效果更好。所以nH[0]=nW[0],即高度和宽度都等于39,nc[0]=3,即0层的通道数为3。

假设第一层用一个3×3的过滤器来提取特征,那么f[1]=3,因为过滤器时3×3的矩阵。s[1]=1p[1]=0,所以高度和宽度使用valid卷积。如果有10个过滤器,神经网络下一层的激活值为37×37×10,写10是因为用了10个过滤器,37是公式n+2pfs+1的计算结果,也就是39+031+1=37,所以输出是37×37,它是一个vaild卷积,这是输出结果的大小。第一层标记为nH[1]=nW[1]=37nc[1]=10nc[1]等于第一层中过滤器的个数,这(37×37×10)是第一层激活值的维度。

假设还有另外一个卷积层,这次采用的过滤器是5×5的矩阵。在标记法中,神经网络下一层的f=5,即f[2]=5步幅为2,即s[2]=2padding为0,即p[2]=0,且有20个过滤器。所以其输出结果会是一张新图像,这次的输出结果为17×17×20,因为步幅是2,维度缩小得很快,大小从37×37减小到17×17,减小了一半还多,过滤器是20个,所以通道数也是20,17×17×20即激活值a[2]的维度。因此nH[2]=nW[2]=17nc[2]=20

来构建最后一个卷积层,假设过滤器还是5×5,步幅为2,即f[2]=5s[3]=2,计算过程跳过了,最后输出为7×7×40,假设使用了40个过滤器。padding为0,40个过滤器,最后结果为7×7×40。

到此,这张39×39×3的输入图像就处理完毕了,为图片提取了7×7×40个特征,计算出来就是1960个特征。然后对该卷积进行处理,可以将其平滑或展开成1960个单元。平滑处理后可以输出一个向量,其填充内容是logistic回归单元还是softmax回归单元,完全取决于是想识图片上有没有猫,还是想识别K种不同对象中的一种,用y^表示最终神经网络的预测输出。明确一点,最后这一步是处理所有数字,即全部的1960个数字,把它们展开成一个很长的向量。为了预测最终的输出结果,把这个长向量填充到softmax回归函数中。

这是卷积神经网络的一个典型范例,设计卷积神经网络时,确定这些超参数比较费工夫。要决定过滤器的大小、步幅、padding以及使用多少个过滤器。

而要掌握的一点是,随着神经网络计算深度不断加深,通常开始时的图像也要更大一些,初始值为39×39,高度和宽度会在一段时间内保持一致,然后随着网络深度的加深而逐渐减小,从39到37,再到17,最后到7。而通道数量在增加,从3到10,再到20,最后到40。在许多其它卷积神经网络中,也可以看到这种趋势。关于如何确定这些参数,这是讲的第一个卷积神经网络示例。

一个典型的卷积神经网络通常有三层,一个是卷积层,常常用Conv来标注。上一个例子,用的就是CONV。还有两种常见类型的层,一个是池化层,称之为POOL。最后一个是全连接层,用FC表示。虽然仅用卷积层也有可能构建出很好的神经网络,但大部分神经望楼架构师依然会添加池化层和全连接层。幸运的是,池化层和全连接层比卷积层更容易设计。

posted @   Oten  阅读(152)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!
点击右上角即可分享
微信分享提示