摘要:
VGGNet由牛津大学的视觉几何组(Visual Geometry Group)提出,是ILSVRC-2014中定位任务第一名和分类任务第二名。本文的主要贡献点就是使用小的卷积核(3x3)来增加网络的深度,并且可以有效提高网络的性能,而且在其他数据集上也有很好的泛化能力。 总结本文,能为网络带来比较 阅读全文
摘要:
VGGNet由牛津大学的视觉几何组(Visual Geometry Group)提出,是ILSVRC-2014中定位任务第一名和分类任务第二名。本文的主要贡献点就是使用小的卷积核(3x3)来增加网络的深度,并且可以有效提高网络的性能,而且在其他数据集上也有很好的泛化能力。 总结本文,能为网络带来比较 阅读全文
摘要:
本文采用的GoogLenet网络(代号Inception)在2014年ImageNet大规模视觉识别挑战赛取得了最好的结果,该网络总共22层。 Motivation and High Level Considerations 提升深度神经网络的一个最直接的方法就是增加网络的大小。这包括增加网络的深度 阅读全文
摘要:
这篇文章使用的AlexNet网络,在2012年的ImageNet(ILSVRC-2012)竞赛中获得第一名,top-5的测试误差为15.3%,相比于第二名26.2%的误差降低了不少。 本文的创新点: 1) 训练了(当时)最大的一个卷积神经网络,在ImageNet数据集上取得(当时)最好的结果; 2) 阅读全文
摘要:
举例1: 比如输入是一个32x32x3的图像,3表示RGB三通道,每个filter/kernel是5x5x3,一个卷积核产生一个feature map,下图中,有6个5x5x3的卷积核,故输出6个feature map(activation map),大小即为28x28x6。 下图中,第二层到第三层 阅读全文
摘要:
1. 深度学习中网络越深越好么? 理论上说是这样的,因为网络越深,参数也越多,拟合能力也越强(但实际情况是,网络很深的时候,不容易训练,使得表现能力可能并不好)。 2. 那么,不同什么深度的网络,在参数差不多大小的情况下,深的网络会比浅的网络表现能力好么?即深度较深的网络比较“瘦”,深度较浅的网络比 阅读全文
摘要:
如上图,深度学习有3个基本的步骤: 1) 定义函数,即选择建立神经网络 2) 建立一个标准,判断第一步得到的函数或者网络好不好,相当于损失函数,误差越小,则该函数或网络越好 3) 选择误差最小的那个函数或网络 将我们之前选择的模型或网络用在训练集上,如果误差大,则说明模型不好,需要重新选择或者训练模 阅读全文
摘要:
Given a 2D binary matrix filled with 0's and 1's, find the largest square containing only 1's and return its area. For example, given the following ma 阅读全文
摘要:
目录: 特点和兼容性 1) 可以在多个计算机上分布式训练么? 可以!TensorFlow从版本0.8开始就支持分布式计算了。TensorFlow现在在一个或多个计算机上支持多个设备(CPUs或者GPUs)。 2) TensorFlow支持Python3么? 0.6.0版本后的TensorFlow,支 阅读全文
摘要:
上一步建立好模型之后,现在就可以训练模型了。 主要代码如下: 一些函数说明如下: 1)tf.summary.merge_all 作用:Merges all summaries collected in the default graph. 2)tf.summary.FileWriter 作用:Wri 阅读全文
摘要:
建立神经网络模型,下面要建立的模型如下: (上图来源:训练网络时,打开tensorboard即可观察网络结构,在下一节模型训练的时候会讲到) 下面为具体步骤: Step 0:导入相关库 Step 1:定义网络结构 函数介绍: 1)tf.variable_scope 通过 tf.get_variabl 阅读全文
|