10 2020 档案

摘要:前面都是写的cell版本的GRU和LSTM,比较底层,便于理解原理。 下面的Sequential版不用自定义state参数的形状,使用更简便: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' ass 阅读全文
posted @ 2020-10-17 00:15 山…隹 阅读(1084) 评论(0) 推荐(0) 编辑
摘要:GRU相比于LSTM只有两个门: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' assert tf.__version__.startswith('2.') # 设置相关底层配置 physical 阅读全文
posted @ 2020-10-16 23:56 山…隹 阅读(1229) 评论(0) 推荐(0) 编辑
摘要:相比simplernn多了三个门,记忆、输入、输出 记忆门(遗忘门,1为记住0为遗忘): 输入门: C: 输出门: 总: 极端条件: 公式: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' asse 阅读全文
posted @ 2020-10-16 22:59 山…隹 阅读(2082) 评论(0) 推荐(0) 编辑
摘要:原来的参数更新代码: 加一个Graddient Clipping后(原理是当梯度高于某个阈值时,自动除以自己的模来达到减小梯度的目的): 比如下图中设置梯度最大值为15 阅读全文
posted @ 2020-10-16 12:45 山…隹 阅读(350) 评论(0) 推荐(0) 编辑
摘要:import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' assert tf.__version__.startswith('2.') # 设置相关底层配置 physical_devices = tf.con 阅读全文
posted @ 2020-10-16 11:18 山…隹 阅读(1157) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-10-07 17:14 山…隹 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-10-07 16:42 山…隹 阅读(148) 评论(0) 推荐(0) 编辑
摘要:patience = 2 意思是最多容忍后两次的数据精度比此次差 validation_splt = 0.2 意思是train数据80%,val数据20% 阅读全文
posted @ 2020-10-07 16:33 山…隹 阅读(1135) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-10-07 16:05 山…隹 阅读(162) 评论(0) 推荐(0) 编辑
摘要:当层数>1时的网络结构为: 代码示例: 阅读全文
posted @ 2020-10-04 23:01 山…隹 阅读(228) 评论(0) 推荐(0) 编辑
摘要:import tensorflow as tf import matplotlib .pyplot as plt from PIL import Image import numpy as np import os from myResNet import resnet35 # 设置相关底层配置 p 阅读全文
posted @ 2020-10-03 09:51 山…隹 阅读(543) 评论(0) 推荐(0) 编辑
摘要:import tensorflow as tf # 设置相关底层配置 physical_devices = tf.config.experimental.list_physical_devices('GPU') assert len(physical_devices) > 0, "Not enoug 阅读全文
posted @ 2020-10-01 19:51 山…隹 阅读(884) 评论(0) 推荐(0) 编辑
摘要:import tensorflow as tf class BasicBlock(tf.keras.layers.Layer): def __init__(self, filter_num, stride=1): super(BasicBlock, self).__init__() self.con 阅读全文
posted @ 2020-10-01 18:57 山…隹 阅读(468) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示