2017年1月20日

神经网络回顾-卷积和池化

摘要: 上一篇随笔中,采用三层神经网络,ReLu作为激活函数,经过反向传播训练,可以得到对训练数据集100%的正确率。 对于测试数据集上的正确率,由于实际特征并不仅限于像素点,所以没有足够高。 以下为涂鸦的两个数字,虽然都代表2,但是像素点上没有相同之处,在多层神经网络中很容易被识别成不一样的数字。 人眼中 阅读全文

posted @ 2017-01-20 22:53 1357 阅读(636) 评论(0) 推荐(0) 编辑

导航