07 2019 档案

摘要:InceptionV1 论文原文:Going deeper with convolutions 中英文对照 InceptionBN 论文原文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Co 阅读全文
posted @ 2019-07-16 22:00 HongmingYou 阅读(1776) 评论(0) 推荐(0) 编辑
摘要:在前文中,我们介绍了LeNet的相关细节,它是由两个卷积层、两个池化层以及两个全链接层组成。卷积都是5*5的模板,stride =1,池化为MAX。整体来说它有三大特点:局部感受野,权值共享和池化。2012年ALex发布了AlexNet,他比LeNet5更深,而且可以学习更复杂的图像高维特征。接下来 阅读全文
posted @ 2019-07-16 12:42 HongmingYou 阅读(499) 评论(0) 推荐(0) 编辑
摘要:转自深度学习知识框架,小象牛逼! 图片来自小象学院公开课,下面直接解释几条线 神经网络 线性回归 (+ 非线性激励) → 神经网络 有线性映射关系的数据,找到映射关系,非常简单,只能描述简单的映射关系 大部分关系是非线性的,所以改进方法就是加一个非线性激励,某种程度是一个 NORMALIZE,但是是 阅读全文
posted @ 2019-07-16 12:18 HongmingYou 阅读(277) 评论(0) 推荐(0) 编辑
摘要:手写字体识别模型LeNet5诞生于1994年,是最早的卷积神经网络之一。原文地址为Gradient-Based Learning Applied to Document Recognition,感谢网络中各博主的讲解,尤其是该博客,帮助我的理解,感谢。 Model详解 C1 6@28×28 S2 6 阅读全文
posted @ 2019-07-11 01:08 HongmingYou 阅读(3726) 评论(0) 推荐(0) 编辑
摘要:终于有了2个月的空闲时间,给自己消化沉淀,希望别有太多的杂事打扰。在很多课程中,我都学过卷积、池化、dropout等基本内容,但目前在脑海中还都是零散的概念,缺乏整体性框架,本系列博客就希望进行一定的归纳和梳理,谋求一个更清晰的思路。 ## Outline 卷积 tensorflow-conv 池化 阅读全文
posted @ 2019-07-10 13:56 HongmingYou 阅读(1245) 评论(0) 推荐(0) 编辑
摘要:本文主要是记录配置tf环境和虚拟机时遇到的问题和方法,方便日后再查找(补前三年欠下的技术债) 宿主机环境:win10 64位 宿主机python: anaconda+python3.6 宿主机tensorflow-gpu:cuda10.1.105 + cudnn 7.6.0 + tensorflow 阅读全文
posted @ 2019-07-01 12:32 HongmingYou 阅读(1118) 评论(0) 推荐(0) 编辑