09 2020 档案
摘要:利用残差迭代训练的网络,可以支持深层,通过训练,自动简化网络结构 每个个小块的代码解析: 堆叠每个小块:
阅读全文
摘要:import tensorflow as tf # 设置相关底层配置 physical_devices = tf.config.experimental.list_physical_devices('GPU') assert len(physical_devices) > 0, "Not enoug
阅读全文
摘要:# 设置相关底层配置 physical_devices = tf.config.experimental.list_physical_devices('GPU') assert len(physical_devices) > 0, "Not enough GPU hardware devices a
阅读全文
摘要:卷积操作简单罗列: 卷积参数排列: 自定义参数结构的卷积(涉及底层才用): 最大池化操作: 通过池化将图片反向放大: ReLU操作(去掉图中的负数像素点,即黑点去掉): 代码实现:
阅读全文
摘要:动量是指在原来的梯度下降基础上,将现在的梯度方向与历史梯度方向融合,根据超参数调节权值,让梯度更缓和并且有可能跳出局部极小值 代码实现: 学习率的动态改变: Dropout 丢弃一些参数,简化模型,减轻过拟合: 因为训练时才需要dropout,所以要区分train还是test(val也属于test)
阅读全文
摘要:参数过多会导致模型过于复杂而出现过拟合现象,通过在loss函数添加关于参数个数的代价变量,限制参数个数,来达到减小过拟合的目的 以下是loss公式: 代码多了一个kernel_regularizer参数 import tensorflow as tf def preporocess(x,y): x
阅读全文
摘要:import tensorflow as tf def preprocess(x, y): x = tf.cast(x, dtype=tf.float32) / 255 - 0.5 y = tf.cast(y, dtype=tf.int32) return x, y batchsz = 128 #
阅读全文
摘要:这里有三种方式保存模型: 第一种: 只保存网络参数,适合自己了解网络结构 第二种: 保存整个网络,可以完美进行恢复 第三个是保存格式。 第一种方式: 实践操作: 第二种方式:(存入整个模型) 第三种方式:(存成工业模型) import tensorflow as tf save_path = 'sa
阅读全文
摘要:keras.Sequential(build和summary是在网络构造前就观察网络参数):
阅读全文
摘要:注意: 1. 图片代码中的network变量在后面的代码展示中是model变量 2. 该列子中db中的y是one_hot编码后的 原代码(一个step中的一个batch): 接口替换后: 原来的for循环每个step与batch: 接口替换后: 此处还没有设置测试的周期(比如前面的step %100
阅读全文
摘要:1. 创建meter 2. 添加数据 3. 展示结果 4. 清除meter 以下代码是在前面随笔中代码的基础上添加的meter相关操作: import tensorflow as tf import datetime def preporocess(x,y): x = tf.cast(x,dtype
阅读全文