摘要:
mnist数据集获取60000个训练样本和10000个测试样本,样本为0-9十个数字,用全连接神经网络进行训练,并测试结果。 例程采用60000个数据样本进行训练,对于一般的电脑来说,这样训练会比较费时间,学习测试较慢 所以,可以加入以下几行代码: 依次理解笔记: 为model添加Dense层,即全 阅读全文
摘要:
激活函数也是神经网络中一个很重的部分。每一层的网络输出都要经过激活函数。比较常用的有linear,sigmoid,tanh,softmax等。Keras内置提供了很全的激活函数,包括像LeakyReLU和PReLU这种比较新的激活函数。 一、激活函数的使用 常用的方法在Activation层中可以找 阅读全文
摘要:
使用 Apply an activation function tothe input.(貌似是把激活函数应用到输入数据的一种层结构) inputshape: 任意。当把这层作为某个模型的第一层时,需要用到该参数(元组,不包含样本轴)。 outputshape:同input shape 参数: ac 阅读全文
摘要:
深度学习Keras框架笔记之AutoEncoder类使用笔记 这是一个用于构建很常见的自动编码模型。如果参数output_reconstruction=True,那么dim(input)=dim(output);否则dim(output)=dim(hidden)。 inputshape: 取决于en 阅读全文
摘要:
深度学习Keras框架笔记之TimeDistributedDense类使用方法笔记 例: 这是一个基于时间维度的全连接层。主要就是用来构建RNN(递归神经网络)的,但是在构建RNN时需要设置return_sequences=True。 inputshape: 3维 tensor(nb_samples 阅读全文
摘要:
深度学习Keras框架笔记之Dense类(标准的一维全连接层) 例: inputshape: 2维 tensor(nb_samples, input_dim) outputshape: 2维 tensor(nb_samples, output_dim) 参数: output_dim: int >= 阅读全文
摘要:
Keras的Layers,就是构成网络的每一层。Keras实现了很多层,包括核心层、卷基层、RNN网络层等诸多常用的网络结构。下面开介绍核心层中包含了哪些内容。因为这个核心层我现在还没有全部用到,所以会有一部分内容我并不是十分了解,因此直接附带了原文档介绍。有了解的朋友可以一起交流! 核心层基类 下 阅读全文
摘要:
系统安装问题 在win10在需要security boot设置成disable,否则安装完后无法设置启动项。 安装完ubuntu重启,系统会直接进入win10,需要使用EaeyBCD进行启动项设置。 进入ubuntu系统,校园网不要使用DSL联网,而是直接默认连上有线连接后在网页进行登录 显卡驱动安 阅读全文
摘要:
总体来讲keras这个深度学习框架真的很“简易”,它体现在可参考的文档写的比较详细,不像caffe,装完以后都得靠技术博客,keras有它自己的官方文档(不过是英文的),这给初学者提供了很大的学习空间。 在此做下代码框架应用笔记 阅读全文
摘要:
今天分享一篇关于python下的zip()函数用法。 zip()是Python的一个内建函数,它接受一系列可迭代的对象作为参数,将对象中对应的元素按顺序组合成一个tuple,每个tuple中包含的是原有序列中对应序号位置的元素,然后返回由这些tuples组成的list。若传入参数的长度不等,则返回l 阅读全文