摘要: 交叉熵损失是分类任务中的常用损失函数,但是是否注意到二分类与多分类情况下的交叉熵形式上的不同呢? 两种形式 这两个都是交叉熵损失函数,但是看起来长的却有天壤之别。为什么同是交叉熵损失函数,长的却不一样? 因为这两个交叉熵损失函数对应不同的最后一层的输出:第一个对应的最后一层是softmax,第二个对 阅读全文
posted @ 2018-12-23 22:27 一只小白白 阅读(22171) 评论(0) 推荐(1) 编辑
摘要: LeNet-5是一个较简单的卷积神经网络。下图显示了其结构:输入的二维图像,先经过两次卷积层到池化层,再经过全连接层,最后使用softmax分类作为输出层 模型结构: LeNet-5共有7层(不包含输入层),每层都包含可训练参数;每个层有多个Feature Map,每个FeatureMap通过一种卷 阅读全文
posted @ 2018-12-23 21:06 一只小白白 阅读(1056) 评论(0) 推荐(0) 编辑