不积跬步,无以至千里;不积小流,无以成江海。——荀子

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理
上一页 1 ··· 4 5 6 7 8 9 10 下一页

2017年10月15日

摘要: VGGNet由牛津大学的视觉几何组(Visual Geometry Group)提出,是ILSVRC-2014中定位任务第一名和分类任务第二名。本文的主要贡献点就是使用小的卷积核(3x3)来增加网络的深度,并且可以有效提高网络的性能,而且在其他数据集上也有很好的泛化能力。 总结本文,能为网络带来比较 阅读全文
posted @ 2017-10-15 13:57 hejunlin 阅读(609) 评论(0) 推荐(0) 编辑

2017年10月13日

摘要: 本文采用的GoogLenet网络(代号Inception)在2014年ImageNet大规模视觉识别挑战赛取得了最好的结果,该网络总共22层。 Motivation and High Level Considerations 提升深度神经网络的一个最直接的方法就是增加网络的大小。这包括增加网络的深度 阅读全文
posted @ 2017-10-13 20:44 hejunlin 阅读(482) 评论(0) 推荐(0) 编辑

2017年10月12日

摘要: 这篇文章使用的AlexNet网络,在2012年的ImageNet(ILSVRC-2012)竞赛中获得第一名,top-5的测试误差为15.3%,相比于第二名26.2%的误差降低了不少。 本文的创新点: 1) 训练了(当时)最大的一个卷积神经网络,在ImageNet数据集上取得(当时)最好的结果; 2) 阅读全文
posted @ 2017-10-12 18:24 hejunlin 阅读(1428) 评论(0) 推荐(0) 编辑

2017年10月3日

摘要: 举例1: 比如输入是一个32x32x3的图像,3表示RGB三通道,每个filter/kernel是5x5x3,一个卷积核产生一个feature map,下图中,有6个5x5x3的卷积核,故输出6个feature map(activation map),大小即为28x28x6。 下图中,第二层到第三层 阅读全文
posted @ 2017-10-03 23:26 hejunlin 阅读(58539) 评论(4) 推荐(4) 编辑

摘要: 1. 深度学习中网络越深越好么? 理论上说是这样的,因为网络越深,参数也越多,拟合能力也越强(但实际情况是,网络很深的时候,不容易训练,使得表现能力可能并不好)。 2. 那么,不同什么深度的网络,在参数差不多大小的情况下,深的网络会比浅的网络表现能力好么?即深度较深的网络比较“瘦”,深度较浅的网络比 阅读全文
posted @ 2017-10-03 18:17 hejunlin 阅读(521) 评论(0) 推荐(0) 编辑

2017年10月2日

摘要: 如上图,深度学习有3个基本的步骤: 1) 定义函数,即选择建立神经网络 2) 建立一个标准,判断第一步得到的函数或者网络好不好,相当于损失函数,误差越小,则该函数或网络越好 3) 选择误差最小的那个函数或网络 将我们之前选择的模型或网络用在训练集上,如果误差大,则说明模型不好,需要重新选择或者训练模 阅读全文
posted @ 2017-10-02 16:31 hejunlin 阅读(5109) 评论(0) 推荐(0) 编辑

2017年10月1日

摘要: Given a 2D binary matrix filled with 0's and 1's, find the largest square containing only 1's and return its area. For example, given the following ma 阅读全文
posted @ 2017-10-01 20:42 hejunlin 阅读(266) 评论(0) 推荐(0) 编辑

摘要: 目录: 特点和兼容性 1) 可以在多个计算机上分布式训练么? 可以!TensorFlow从版本0.8开始就支持分布式计算了。TensorFlow现在在一个或多个计算机上支持多个设备(CPUs或者GPUs)。 2) TensorFlow支持Python3么? 0.6.0版本后的TensorFlow,支 阅读全文
posted @ 2017-10-01 18:32 hejunlin 阅读(316) 评论(0) 推荐(0) 编辑

2017年9月30日

摘要: 上一步建立好模型之后,现在就可以训练模型了。 主要代码如下: 一些函数说明如下: 1)tf.summary.merge_all 作用:Merges all summaries collected in the default graph. 2)tf.summary.FileWriter 作用:Wri 阅读全文
posted @ 2017-09-30 00:53 hejunlin 阅读(2468) 评论(1) 推荐(0) 编辑

摘要: 建立神经网络模型,下面要建立的模型如下: (上图来源:训练网络时,打开tensorboard即可观察网络结构,在下一节模型训练的时候会讲到) 下面为具体步骤: Step 0:导入相关库 Step 1:定义网络结构 函数介绍: 1)tf.variable_scope 通过 tf.get_variabl 阅读全文
posted @ 2017-09-30 00:25 hejunlin 阅读(785) 评论(0) 推荐(0) 编辑

上一页 1 ··· 4 5 6 7 8 9 10 下一页