摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com 在模型训练时加上: 阅读全文
posted @ 2019-03-05 18:53 碧水青山 阅读(25480) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com 在前一篇中的ResNet-34残差网络,经过减小卷积核训练准确率提升到85%。 这里对训练数据集做数据增强: 1、对原始32*32图像四周各填充4个0像素(40*40),然后随机裁剪成32*32。 2、 阅读全文
posted @ 2019-02-27 20:58 碧水青山 阅读(4592) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com 在前一篇中的ResNet-34残差网络,经过训练准确率只达到80%。 这里对网络做点小修改,在最开始的卷积层中用更小(3*3)的卷积核,并且不缩小图片尺寸,相应的最后的平均池化的核改为4*4。 具体修改 阅读全文
posted @ 2019-02-26 22:52 碧水青山 阅读(3824) 评论(1) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com CNN的层数越多,能够提取到的特征越丰富,但是简单地增加卷积层数,训练时会导致梯度弥散或梯度爆炸。 何凯明2015年提出了残差神经网络,即Reset,并在ILSVRC-2015的分类比赛中获得冠军。 R 阅读全文
posted @ 2019-02-26 21:26 碧水青山 阅读(33962) 评论(1) 推荐(3) 编辑
摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com VGGNet在2014年ImageNet图像分类任务竞赛中有出色的表现。网络结构如下图所示: 同样的,对32*32的CIFAR10图片,网络结构做了微调:删除了最后一层最大池化,具体参见网络定义代码,这 阅读全文
posted @ 2019-02-24 20:51 碧水青山 阅读(2972) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com AlexNet在2012年ImageNet图像分类任务竞赛中获得冠军。网络结构如下图所示: 对CIFAR10,图片是32*32,尺寸远小于227*227,因此对网络结构和参数需做微调: 卷积层1:核大小 阅读全文
posted @ 2019-02-24 19:20 碧水青山 阅读(4779) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com 前面几篇文章介绍了MINIST,对这种简单图片的识别,LeNet-5可以达到99%的识别率。 CIFAR10是另一个著名的深度学习图像分类识别数据集,比MINIST更复杂,而且是RGB彩色图片。 看看较 阅读全文
posted @ 2019-02-24 18:35 碧水青山 阅读(13460) 评论(1) 推荐(1) 编辑
摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com 在前两篇文章MINIST深度学习识别:python全连接神经网络和pytorch LeNet CNN网络训练实现及比较(一)、MINIST深度学习识别:python全连接神经网络和pytorch LeN 阅读全文
posted @ 2019-02-20 20:06 碧水青山 阅读(879) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com 在前一篇文章MINIST深度学习识别:python全连接神经网络和pytorch LeNet CNN网络训练实现及比较(一)中,直接用python创建全连接神经网络模型进行深度学习训练,这样可以对神经网 阅读全文
posted @ 2019-02-20 19:23 碧水青山 阅读(1464) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com 全连接神经网络是深度学习的基础,理解它就可以掌握深度学习的核心概念:前向传播、反向误差传递、权重、学习率等。这里先用python创建模型,用minist作为数据集进行训练。 定义3层神经网络:输入层节点 阅读全文
posted @ 2019-02-20 18:49 碧水青山 阅读(2474) 评论(2) 推荐(0) 编辑