11 2019 档案

摘要:进行迁移学习时,加载完别人的模型,想要进行一些微调,就需要想办法获取到该网络中某些张良的名称,尤其是输入和输出。 with tf.Session() as sess: #此处加载模型 tensor_name_list = [tensor.name for tensor in tf.get_defau 阅读全文
posted @ 2019-11-19 09:17 彼岸的客人 阅读(674) 评论(0) 推荐(0) 编辑
摘要:一、.ckpt文件的保存和加载 1、保存的文件 这是我保存的文件,保存一次有四个文件: checkpoint文件:用于告知某些TF函数,这是最新的检查点文件(可以用记事本打开看一下) .data文件:(后面缀的那一串我也布吉岛是啥)这个文件保存的是图中所有变量的值,没有结构。 .index文件:可能 阅读全文
posted @ 2019-11-18 15:40 彼岸的客人 阅读(18749) 评论(0) 推荐(4) 编辑
摘要:在搭建网络模型时通常要建立一个评估模型正确率的节点(evaluation_step) 这里介绍一个对于分类问题可以用的评估方法: 代码: correct_prediction = tf.equal(tf.argmax(logits, 1), tf.argmax(groundtruth_input, 阅读全文
posted @ 2019-11-17 09:57 彼岸的客人 阅读(814) 评论(0) 推荐(0) 编辑
摘要:训练神经网络模型时通常要设置学习率learning_rate,可以直接将其设置为一个常数(通常设置0.01左右),但是用产生过户学习率会使参数的更新过程显得很僵硬,不能很好的符合训练的需要(到后期参数仅需要很小变化时,学习率的值还是原来的值,会造成无法收敛,甚至越来越差的情况),过大无法收敛,过小训 阅读全文
posted @ 2019-11-16 11:17 彼岸的客人 阅读(1807) 评论(0) 推荐(0) 编辑
摘要:在分类问题中,交叉熵是经常选用的损失函数(loss) 关于交叉熵的详细解释请看这篇博客:https://blog.csdn.net/tsyccnh/article/details/79163834 在单分类问题中(即one-hot问题),通常使用tf.nn.softmax_cross_entropy 阅读全文
posted @ 2019-11-16 10:48 彼岸的客人 编辑

点击右上角即可分享
微信分享提示