随笔分类 -  Keras

摘要:Keras提供两种学习率适应方法,可通过回调函数实现。 1. LearningRateScheduler 该回调函数是学习率调度器. 参数 schedule:函数,该函数以epoch号为参数(从0算起的整数),返回一个新学习率(浮点数) 代码 2. ReduceLROnPlateau 当评价指标不在 阅读全文
posted @ 2019-03-20 14:49 nxf_rabbit75 阅读(6303) 评论(2) 推荐(0) 编辑
摘要:1、目标函数 (1)mean_squared_error / mse 均方误差,常用的目标函数,公式为((y_pred-y_true)**2).mean()(2)mean_absolute_error / mae 绝对值均差,公式为(|y_pred-y_true|).mean()(3) mean_a 阅读全文
posted @ 2019-03-08 16:43 nxf_rabbit75 阅读(4038) 评论(0) 推荐(0) 编辑
摘要:1、keras卷积操作中border_mode的实现 总结:如果卷积的方式选择为same,那么卷积操作的输入和输出尺寸会保持一致。如果选择valid,那卷积过后,尺寸会变小。 2.卷积的操作中,如果使用same,或valid这种模式,有时候会不灵活。必要的时候,需要我们自己去进行补零操作,庆幸的是k 阅读全文
posted @ 2018-12-21 19:41 nxf_rabbit75 阅读(4314) 评论(0) 推荐(0) 编辑
摘要:. │ activations.py │ callbacks.py │ constraints.py │ initializations.py │ metrics.py │ models.py │ objectives.py │ optimizers.py │ regularizers.py │ __init__.py │ ├─applications | # ... 阅读全文
posted @ 2018-12-19 10:28 nxf_rabbit75 阅读(578) 评论(0) 推荐(0) 编辑
摘要:25000条评论 50%正 50%负 25000条评论 50%正 50%负 46个不同的新闻主题,训练集中每个主题都有至少10个样本 每个样本都是一个整数列表 单标签、多分类 猫狗图像数据集 2013年kaggle比赛 12500张猫 12500张狗 CNN 140万张标记图像, 1000个不同种类 阅读全文
posted @ 2018-12-18 15:05 nxf_rabbit75 阅读(2036) 评论(0) 推荐(0) 编辑
摘要:输入模式与网络架构间的对应关系: 向量数据:密集连接网络(Dense层) 图像数据:二维卷积神经网络 声音数据(比如波形):一维卷积神经网络(首选)或循环神经网络 文本数据:一维卷积神经网络(首选)或循环神经网络 时间序列数据:循环神经网络(首选)或一维卷积神经网络 其他类型的序列数据:循环神经网络 阅读全文
posted @ 2018-12-15 16:21 nxf_rabbit75 阅读(1592) 评论(0) 推荐(0) 编辑
摘要:生成式对抗网络(GAN,generative adversarial network)由Goodfellow等人于2014年提出,它可以替代VAE来学习图像的潜在空间。它能够迫使生成图像与真实图像在统计上几乎无法区别,从而生成相当逼真的合成图像。 1.GAN是什么? 简单来说就是由两部分组成,生成器 阅读全文
posted @ 2018-12-03 17:41 nxf_rabbit75 阅读(5357) 评论(0) 推荐(0) 编辑
摘要:1.VAE和GAN 变分自编码器(VAE,variatinal autoencoder) 生成式对抗网络(GAN,generative adversarial network) 两者不仅适用于图像,还可以探索声音、音乐甚至文本的潜在空间; VAE非常适合用于学习具有良好结构的潜在空间,其中特定方向表 阅读全文
posted @ 2018-11-24 21:10 nxf_rabbit75 阅读(4647) 评论(3) 推荐(6) 编辑
摘要:DeepDream是一种艺术性的图像修改技术,它用到了卷积神经网络学到的表示,DeepDream由Google于2015年发布。这个算法与卷积神经网络过滤器可视化技术几乎相同,都是反向运行一个卷积神经网络:对卷积神经网络的输入做梯度上升,以便将卷积神经网络靠顶部的某一层的某个过滤器激活最大化。但有以 阅读全文
posted @ 2018-11-24 15:40 nxf_rabbit75 阅读(1511) 评论(0) 推荐(0) 编辑
摘要:一、不用Sequential模型的解决方案:keras函数式API 1.多输入模型 简单的问答模型 输入:问题 + 文本片段 输出:回答(一个词) #多输出模型的编译选项:损失加权 不同的损失值具有不同的取值范围,为了平衡不同损失的贡献,应该对loss_weights进行设置 2.多输出模型 一个网 阅读全文
posted @ 2018-11-22 17:56 nxf_rabbit75 阅读(1680) 评论(0) 推荐(0) 编辑
摘要:最近看了吴恩达老师的深度学习课程,又看了python深度学习这本书,对深度学习有了大概的了解,但是在实战的时候, 还是会有一些细枝末节没有完全弄懂,这篇文章就用来总结一下用keras实现深度学习算法的时候一些我自己很容易搞错的点。 一、与序列文本有关 1.仅对序列文本进行one-hot编码 比如:使 阅读全文
posted @ 2018-11-22 14:55 nxf_rabbit75 阅读(11958) 评论(0) 推荐(2) 编辑
摘要:import numpy as np np.random.seed(1337) # for reproducibility from keras.models import Sequential from keras.layers import Dense from keras.models import load_model # create some data X = np.lin... 阅读全文
posted @ 2018-11-20 22:01 nxf_rabbit75 阅读(818) 评论(0) 推荐(0) 编辑
摘要:1.将文本数据预处理为有用的数据表示 将文本分割成单词(token),并将每一个单词转换为一个向量 将文本分割成单字符(token),并将每一个字符转换为一个向量 提取单词或字符的n-gram(token),并将每个n-gram转换为一个向量。n-gram是多个连续单词或字符的集合 将向量与标记相关 阅读全文
posted @ 2018-11-18 21:36 nxf_rabbit75 阅读(792) 评论(0) 推荐(0) 编辑
摘要:1. one-hot编码 characters= '0123456789abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVW XYZ!"#$%&\'()*+,-./:;<=>?@[\\]^_`{|}~ \t\n\r\x0b\x0c' one-hot 编码 阅读全文
posted @ 2018-11-16 16:59 nxf_rabbit75 阅读(732) 评论(0) 推荐(0) 编辑
摘要:原数据集:包含 25000张猫狗图像,两个类别各有12500 新数据集:猫、狗 (照片大小不一样) 训练集:各1000个样本 验证集:各500个样本 测试集:各500个样本 1= 狗,0= 猫 该问题为二分类问题,所以网咯最后一层是使用sigmoid激活的 单一单元,大小为1的Dense层。 los 阅读全文
posted @ 2018-11-15 14:15 nxf_rabbit75 阅读(1302) 评论(0) 推荐(0) 编辑
摘要:VGG16内置于Keras,可以通过keras.applications模块中导入。 将VGG16 卷积实例化: weights:指定模型初始化的权重检查点、 include_top: 指定模型最后是否包含密集连接分类器。默认情况下,这个密集连接分类器对应于ImageNet的100个类别。如果打算使 阅读全文
posted @ 2018-11-14 20:49 nxf_rabbit75 阅读(2535) 评论(0) 推荐(0) 编辑
摘要:定义模型两种方法: 训练神经网络模型: 【1】定义问题、收集数据集 处理二分类、多分类问题小tips (1)二分类:神经网络中间层可以使用带有relu激活的Dense堆叠,网络的最后一层是只有一个单元并使用sigmoid激活的Dense层,网络输出应该是0-1范围内的标量, 表示概率值。 (2)多分 阅读全文
posted @ 2018-11-13 14:38 nxf_rabbit75 阅读(899) 评论(0) 推荐(0) 编辑
摘要:问题描述:样本为所有恐龙名字,为了构建字符级语言模型来生成新的名称,你的模型将学习不同的名称模式,并随机生成新的名字。 在这里你将学习到: 如何存储文本数据以便使用rnn进行处理。 如何合成数据,通过每次采样预测,并将其传递给下一个rnn单元。 如何构建字符级文本生成循环神经网络。 为什么梯度修剪很 阅读全文
posted @ 2018-11-12 11:35 nxf_rabbit75 阅读(844) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示