程序项目代做,有需求私信(小程序、网站、爬虫、电路板设计、驱动、应用程序开发、毕设疑难问题处理等)

05 2018 档案

摘要:上一节我们讲到自编码可以用于进行数据降维、数据压缩、对文字或图像提取主题并用于信息检索等。 根据所解决的问题不同 ,自编码可以有许多种不同形式的变形,例如: 去噪自编码器(DAE)、变分自编码器 (VAE)、收缩自编码器(CAE)和稀疏自编码器等 。下面我们先从去噪自编码讲起。 一 去噪自编码 要想 阅读全文
posted @ 2018-05-30 20:22 大奥特曼打小怪兽 阅读(4446) 评论(19) 推荐(0) 编辑
摘要:urilib是python的标准库,当我们使用Python爬取网页数据时,往往用的是urllib模块,通过调用urllib模块的urlopen(url)方法返回网页对象,并使用read()方法获得url的html内容,然后使用BeautifulSoup抓取某个标签内容,结合正则表达式过滤。但是,用u 阅读全文
posted @ 2018-05-27 15:26 大奥特曼打小怪兽 阅读(6661) 评论(2) 推荐(0) 编辑
摘要:人们平时看一幅图片时,并不是像计算机那样逐个像素去读,一般是扫一眼物体,大致能得到需要的信息,如形状、颜色和特征等,那么怎么让机器也具有这项能力呢?这里就介绍一下自编码网络。 自编码网络是非监督学习领域中的一种,可以自动从无标注的数据中学习特征,是一种以重构输入信息为目标的神经网络,它可以给出比原始 阅读全文
posted @ 2018-05-23 18:39 大奥特曼打小怪兽 阅读(10546) 评论(0) 推荐(0) 编辑
摘要:"受限波尔兹曼"这名字听起来就霸气,算法如其名,也挺难的。之所以难,是因为我们大部分人都没学过概率图模型,其实RBM是条件随机场的变体,所以如果学习这个算法,建议先把CRF给熟悉了,那么学起来就会轻松很多。受限玻尔兹曼机是由Geoff Hinton发明,是一种用于降维、分类、回归、协同过滤、特征学习 阅读全文
posted @ 2018-05-19 17:10 大奥特曼打小怪兽 阅读(6177) 评论(3) 推荐(1) 编辑
摘要:一 初始化RNN 上一节中介绍了 通过cell类构建RNN的函数,其中有一个参数initial_state,即cell初始状态参数,TensorFlow中封装了对其初始化的方法。 1.初始化为0 对于正向或反向,第一个cell传入时没有之前的序列输出值,所以需要对其进行初始化。一般来讲,不用刻意取指 阅读全文
posted @ 2018-05-17 21:43 大奥特曼打小怪兽 阅读(3812) 评论(0) 推荐(1) 编辑
摘要:本节主要介绍在TensorFlow中实现LSTM以及GRU网络。 一 LSTM网络 Long Short Term 网络—— 一般就叫做 LSTM ——是一种 RNN 特殊的类型,可以学习长期依赖信息。LSTM 由 Hochreiter & Schmidhuber (1997) 提出,并在近期被 A 阅读全文
posted @ 2018-05-12 23:29 大奥特曼打小怪兽 阅读(36183) 评论(1) 推荐(4) 编辑
摘要:这一节使用TensorFlow中的函数搭建一个简单的RNN网络,使用一串随机的模拟数据作为原始信号,让RNN网络来拟合其对应的回声信号。 样本数据为一串随机的由0,1组成的数字,将其当成发射出去的一串信号。当碰到阻挡被反弹回来时,会收到原始信号的回声。 如果步长为3,那么输入和输出的序列如下图所示: 阅读全文
posted @ 2018-05-08 21:34 大奥特曼打小怪兽 阅读(1690) 评论(0) 推荐(0) 编辑
摘要:退位减法具有RNN的特性,即输入的两个数相减时,一旦发生退位运算,需要将中间状态保存起来,当高位的数传入时将退位标志一并传入参与计算。 我们在做减法运算时候,把减数和被减数转换为二进制然后进行运算。我们定义一个RNN网络,输入节点数为2个,依次传入减数和被减数的二进制序列值,隐藏层节点数为16个,由 阅读全文
posted @ 2018-05-07 20:16 大奥特曼打小怪兽 阅读(1479) 评论(0) 推荐(0) 编辑
摘要:刘建平Pinard博客系列 深度神经网络(DNN)模型与前向传播算法 深度神经网络(DNN)反向传播算法(BP) 深度神经网络(DNN)损失函数和激活函数的选择 机器学习中的交叉熵代价函数 深度神经网络(DNN)的正则化 卷积神经网络(CNN)模型结构 卷积神经网络(CNN)前向传播算法 卷积神经网 阅读全文
posted @ 2018-05-07 10:32 大奥特曼打小怪兽 阅读(972) 评论(0) 推荐(0) 编辑
摘要:在深度学习章节里,已经介绍了批量归一化的概念,详情请点击这里:第九节,改善深层神经网络:超参数调试、正则化以优化(下) 神经网络在进行训练时,主要是用来学习数据的分布规律,如果数据的训练部分和测试部分分布不一样,那么网络的泛化能力会变得非常差.而且对于训练的数据,每批分布也是不一样的,那么网络在迭代 阅读全文
posted @ 2018-05-05 23:26 大奥特曼打小怪兽 阅读(20611) 评论(1) 推荐(1) 编辑
摘要:在使用卷积神经网络时,我们也总结了一些训练技巧,下面就来介绍如何对卷积核进行优化,以及多通道卷积技术的使用。 一 优化卷积核 在实际的卷积训练中,为了加快速度,常常把卷积核裁开。比如一个3x3的卷积核,可以裁成一个3x1和1x3的卷积核(通过矩阵乘法得知),分别对原有输入做卷积运算,这样可以大大提升 阅读全文
posted @ 2018-05-05 18:16 大奥特曼打小怪兽 阅读(6019) 评论(1) 推荐(2) 编辑
摘要:这一节,介绍TensorFlow中的一个封装好的高级库,里面有前面讲过的很多函数的高级封装,使用这个高级库来开发程序将会提高效率。 我们改写第十三节的程序,卷积函数我们使用tf.contrib.layers.conv2d(),池化函数使用tf.contrib.layers.max_pool2d()和 阅读全文
posted @ 2018-05-05 16:36 大奥特曼打小怪兽 阅读(18671) 评论(0) 推荐(0) 编辑
摘要:在第十三节,我们已经介绍了使用带有全局平均池化层的CNN对CIFAR10数据集分类,在学习了反卷积神经网络之后我们把第十三节那个程序里的卷积层可视化出来。 一 替换掉tf.nn.max_pool()函数 这里不再使用自己定义的max_pool_2x2函数,改成新加入的带有mask返回值得max_po 阅读全文
posted @ 2018-05-05 11:45 大奥特曼打小怪兽 阅读(3356) 评论(1) 推荐(1) 编辑
摘要:反卷积是指,通过测量输出和已知输入重构未知输入的过程。在神经网络中,反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积神经网络,没有学习训练的过程。反卷积有着许多特别的应用,一般可以用于信道均衡、图像恢复、语音识别、地震学、无损探伤等未知输入估计和过程辨识方面的问题。 在神经网络的研 阅读全文
posted @ 2018-05-04 22:12 大奥特曼打小怪兽 阅读(14382) 评论(5) 推荐(2) 编辑
摘要:这里使用的数据集仍然是CIFAR-10,由于之前写过一篇使用AlexNet对CIFAR数据集进行分类的文章,已经详细介绍了这个数据集,当时我们是直接把这些图片的数据文件下载下来,然后使用pickle进行反序列化获取数据的,具体内容可以参考这里:第十六节,卷积神经网络之AlexNet网络实现(六) 与 阅读全文
posted @ 2018-05-04 13:07 大奥特曼打小怪兽 阅读(6853) 评论(1) 推荐(1) 编辑
摘要:TensorFlow程序读取数据一共有3种方法: 供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。 从文件读取数据: 在TensorFlow图的起始, 让一个输入管道从文件中读取数据。 预加载数据: 在TensorFlow图中定义常量或变量来保存 阅读全文
posted @ 2018-05-02 22:48 大奥特曼打小怪兽 阅读(7868) 评论(0) 推荐(1) 编辑

如果有任何技术小问题,欢迎大家交流沟通,共同进步

公告 & 打赏

>>

欢迎打赏支持我 ^_^

最新公告

程序项目代做,有需求私信(小程序、网站、爬虫、电路板设计、驱动、应用程序开发、毕设疑难问题处理等)。

了解更多

点击右上角即可分享
微信分享提示