CNN原理+超参数优化
原理
参考:https://www.cnblogs.com/charlotte77/p/7759802.html
卷积层:
作用:特征提取,减小参数
池化层:
作用:将卷积层提取的特征中最能反映该特征的特征值取出来
Flattern layer和全连接层:
作用:前者将前面得到的feature_map这种矩阵拍平,拍平后作为输入输入到全连接层,全连接层输出后使用softmax得到多分类的概率
下面的机器之心的回答讲解的更细致准确:
参考:https://www.zhihu.com/question/52668301
1、cnn的结构为:input——conv——relu——conv——relu——pool——relu——conv——relu——pool——fully connected
而在卷积层中用来提取特征的矩阵叫卷积核(也叫过滤器)
在cnn中离输入层越近的卷积层(筛选出来的特征值)对应的特征越低级,越远越高级。例如筛选的特征从左到右依次为曲线特征,圆形特征。
在全连接层,当使用softmax激活函数时,全连接层的输出是一个n维向量,n是多分类问题的类别数量
模型的训练是通过一个名为反向传播的训练过程来调整过滤器值(或权重)(这里参照西瓜书反向传播部分),cnn也有其他模型训练时用到的损失函数、评价指标,求解参数(过滤器值或权重)时也用的是梯度下降法。
全连接层的解释:
画图解释:https://zhuanlan.zhihu.com/p/23178423
全连接层中的“卷积”操作:https://zhuanlan.zhihu.com/p/33841176
https://www.zhihu.com/question/41037974