全连接层的作用

深入理解卷积层,全连接层的作用意义

参考链接:https://blog.csdn.net/m0_37407756/article/details/80904580

 全连接层的作用主要就是实现分类

参考链接:https://blog.csdn.net/weixin_40903337/article/details/100074878?spm=1001.2101.3001.6650.2&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7Edefault-2.no_search_link&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7Edefault-2.no_search_link

全连接层中一层的一个神经元就可以看成一个多项式,我们用许多神经元去拟合数据分布但是只用一层fully connected layer 有时候没法解决非线性问题,而如果有两层或以上fully connected layer就可以很好地解决非线性问题了。

在卷积神经网络的最后,往往会出现一两层全连接层,全连接一般会把卷积输出的二维特征图转化成一维的一个向量,这是怎么来的呢?目的何在呢?

参考链接:https://blog.csdn.net/GoodShot/article/details/79633313?utm_medium=distribute.pc_relevant.none-task-blog-2~default~baidujs_baidulandingword~default-1.no_search_link&spm=1001.2101.3001.4242.2

第一层全连接层:1*100

第二层全连接层:1*10

两层之间的连接就是卷积核:100*10的二维矩阵。

tips:想想矩阵相乘,就明白1X100的“矩阵”怎么变成1X10的矩阵了。

 

posted @ 2021-11-23 20:30  ytshang123  阅读(1125)  评论(0编辑  收藏  举报