不闻不若闻之,闻之不若见之|

顾子郤

园龄:11个月粉丝:5关注:2

全连接层详解

该博客仅是笔者对于全连接层的浅薄理解。如果存在问题,请务必告知我,谢谢。

前言

全连接层是常见的神经网络层,可以作为模型的分类器(可理解为将特征维度映射到类别维度上),也可以作为特征提取。不过,对于初学者,可以直接认为全连接层是模型的分类器。毕竟大多数情况下,全连接层都是扮演的分类器的角色。

全连接层中的每一个结点都会与前一层的全部结点相连,因此全连接层的可学习参数非常多,可能会占该模型参数量的80%(数据为经验值,不准确),会消耗大量的计算资源,所以如果希望模型训练得更快,可考虑精简全连接层,比如使用卷积代替全连接层。常见的全连接层的结构如下图,但笔者认为该图仅能清晰地展示全连接层的每一个结点都与前一层结点,不过不能揭示全连接层的本质——矩阵Matrix。

image1

全连接层计算

计算公式:y=xw+b,其中wb是可学习参数。模型训练其实就是更新模型中的可学习参数。

从公式里可以看出,全连接层其实跟MLP(多层感知机)、卷积层类似,都是在做多项式求和。注意:整个神经网络本质上其实都是在做多项式求和。

在Pytorch中,全连接层的使用是nn.Linear(input_features, output_features),即输入维度和输出维度,全连接层的作用可理解为维度映射。

示例

假设inputfeatures=3outputfeatures=2相当于一个二分类问题。输入特征x的形状为5×3,则权重矩阵w的形状为3×2,偏置b的形状为5×1。输入特征可以理解为5个样本,每个样本有3个特征;权重矩阵可理解为将输入特征的三维映射到二维。

(1)(y1y2y3y4y5)=(x1,1x1,2x1,3x2,1x2,2x2,3x3,1x3,2x3,3x4,1x4,2x4,3x5,1x5,2x5,3)(w1,1w1,2w2,1w2,2w3,1w3,2)+(b1b2b3b4b5)(2)=(x1,1w1,1+x1,2w2,1+x1,3w3,1+b1x1,1w1,2+x1,2w2,2+x1,3w3,2+b1x2,1w1,1+x2,2w2,1+x2,3w3,1+b2x2,1w1,2+x2,2w2,2+x2,3w3,2+b2x3,1w1,1+x3,2w2,1+x3,3w3,1+b3x3,1w1,2+x3,2w2,2+x3,3w3,2+b3x4,1w1,1+x4,2w2,1+x4,3w3,1+b4x4,1w1,2+x4,2w2,2+x4,3w3,2+b4x5,1w1,1+x5,2w2,1+x5,3w3,1+b5x5,1w1,2+x5,2w2,2+x5,3w3,2+b5)

在模型输出的时候,选择概率大的一个作为最终输出。由上述例子可以看出,yi中对应的每一个xi,j都参与到了最终结果计算中,每一个xi,j都会对结果产生影响,体现了全连接的“全”,即全连接结构图中的每一个结点都与前一层的每一个结点相连。

换个角度理解,提取特征——> 对特征进行多项式求和,给特征确定权重,以表示该特征在此任务中的重要性。那是否可以将全连接层也看作是特征提取呢?wi,j就是输入数据xi,j的权重。笔者认为可以,在有的论文中也确实是这样做的。

本文作者:顾子郤

本文链接:https://www.cnblogs.com/coder-shane/p/18355096

版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。

posted @   顾子郤  阅读(227)  评论(0编辑  收藏  举报
点击右上角即可分享
微信分享提示
评论
收藏
关注
推荐
深色
回顶
收起