CNN原理+超参数优化

原理

参考:https://www.cnblogs.com/charlotte77/p/7759802.html

卷积层:

作用:特征提取,减小参数

池化层:

作用:将卷积层提取的特征中最能反映该特征的特征值取出来

Flattern layer和全连接层:

作用:前者将前面得到的feature_map这种矩阵拍平,拍平后作为输入输入到全连接层,全连接层输出后使用softmax得到多分类的概率

下面的机器之心的回答讲解的更细致准确:

参考:https://www.zhihu.com/question/52668301

1、cnn的结构为:input——conv——relu——conv——relu——pool——relu——conv——relu——pool——fully connected

而在卷积层中用来提取特征的矩阵叫卷积核(也叫过滤器)

在cnn中离输入层越近的卷积层(筛选出来的特征值)对应的特征越低级,越远越高级。例如筛选的特征从左到右依次为曲线特征,圆形特征。

在全连接层,当使用softmax激活函数时,全连接层的输出是一个n维向量,n是多分类问题的类别数量

模型的训练是通过一个名为反向传播的训练过程来调整过滤器值(或权重)(这里参照西瓜书反向传播部分),cnn也有其他模型训练时用到的损失函数、评价指标,求解参数(过滤器值或权重)时也用的是梯度下降法。

全连接层的解释:

画图解释:https://zhuanlan.zhihu.com/p/23178423

全连接层中的“卷积”操作:https://zhuanlan.zhihu.com/p/33841176

https://www.zhihu.com/question/41037974

 超参数优化

参考:https://www.cnblogs.com/bonelee/p/8528863.html

posted @ 2019-05-01 17:44  IcarusYu  阅读(2623)  评论(0编辑  收藏  举报