摘要: 使用tf.train.Saver()保存到checkpoint文件,我们可以用tensorflow查看。 阅读全文
posted @ 2018-08-25 20:36 超级学渣渣 阅读(160) 评论(0) 推荐(0) 编辑
摘要: 我们通过tf.train.Saver()来保存和重载变量 实现是保存 通过调用saver的save方法来保存,返回一个str,代表了路径。 然后展示的是我们保存部分变量和重载: 如果Saver中不传入参数,则会将所有的变量都保存。传入字典,则会按照字典中的key-value对变量进行保存。 对于不需 阅读全文
posted @ 2018-08-25 20:32 超级学渣渣 阅读(156) 评论(0) 推荐(0) 编辑
摘要: 代码写的再好,没有图别人也不知道好在哪。 我们在使用tensorflow的时候,使用tensorboard可以直观的看到我们的网络结构,甚至它可以计算卷积和池化的维度(我不知道是不是因为我已经运行了一遍,所以维度显示出来了) 首先是开启tensorboard的代码: 因为我用pip下载了tensor 阅读全文
posted @ 2018-08-25 19:45 超级学渣渣 阅读(383) 评论(0) 推荐(0) 编辑
摘要: 算的的上是自己搭建的第一个卷积神经网络。网络结构比较简单。 输入为单通道的mnist数据集。它是一张28*28,包含784个特征值的图片 我们第一层输入,使用5*5的卷积核进行卷积,输出32张特征图,然后使用2*2的池化核进行池化 输出14*14的图片 第二层 使用5*5的卷积和进行卷积,输出64张 阅读全文
posted @ 2018-08-25 16:38 超级学渣渣 阅读(4742) 评论(0) 推荐(0) 编辑
摘要: 从昨天晚上,到今天上午12点半左右吧,一直在调这个代码。最开始训练的时候,老是说loss:nan 查了资料,因为是如果损失函数使用交叉熵,如果预测值为0或负数,求log的时候会出错。需要对预测结果进行约束。 有一种约束方法是:y_predict=max(y,(0,1e-18])。也就是将小于0的数值 阅读全文
posted @ 2018-08-25 14:35 超级学渣渣 阅读(495) 评论(0) 推荐(0) 编辑