摘要: TensorFlow提供了一个非常简单的API来保存和还原一个神经网络模型。这个API就是tf.train.Saver类。以下代码给出了保存TesnsorFlow计算图的方法。 上述代码实现了持久化一个简单的TensorFlow模型的功能。通过saver.save函数将TensorFlow模型保存到 阅读全文
posted @ 2019-07-25 01:50 陈辻柒 阅读(225) 评论(0) 推荐(1) 编辑
摘要: TensorFlow的变量初始化函数 tf.get_variable函数与tf.Variable函数最大的区别在于指定变量名称的参数。对于tf.Variable函数,变量名称是一个可选的参数,通过name = "v"的形式给出。但是对于tf.get_variable函数,变量名称是一个必填的参数。t 阅读全文
posted @ 2019-07-24 23:35 陈辻柒 阅读(172) 评论(0) 推荐(0) 编辑
摘要: 1、学习率的设置 指数衰减法 TensorFlow提供了tf.train.exponential_decay函数实现了指数衰减学习率。通过这个函数,可以先使用较大的学习率来快速得到一个比较优的解,然后随着迭代的继续逐步减小学习率,使得模型在训练后期更加稳定。exponential_decay函数会指 阅读全文
posted @ 2019-07-24 16:45 陈辻柒 阅读(359) 评论(0) 推荐(0) 编辑
摘要: TensorFlow随机数生成函数 阅读全文
posted @ 2019-07-23 23:40 陈辻柒 阅读(228) 评论(0) 推荐(0) 编辑
摘要: 会话拥有并管理TensorFlow程序运行时的所有资源。当计算完成后需要关闭会话来帮助系统回收资源,否则就可能出现资源泄漏的问题。 TensorFlow中使用的会话模式一般有梁总,第一种模式需要明确调用会话生成函数和关闭会话函数,代码流程如下: 上述方法计算完成时,需要明确调用Session.clo 阅读全文
posted @ 2019-07-23 23:09 陈辻柒 阅读(157) 评论(0) 推荐(0) 编辑
摘要: 在TensorFlow程序中,所有的数据都通过张量的形式来表示。从功能的角度上看,张量可以简单理解为多维数组。但张量在TensorFlow中的实现并不是直接采用的数组的形式,它只是对TensorFlow中运算结果的引用。在张量中并没有真正的保存数字,它保存的是如何得到这些数字的计算过程。 一个张量主 阅读全文
posted @ 2019-07-23 22:55 陈辻柒 阅读(366) 评论(0) 推荐(0) 编辑
摘要: TensorFlow程序一般可以分为两个阶段。在第一个阶段需要定义计算图中的所有的计算。第二个阶段为执行计算。 在TensorFlow程序中,系统会自动维护一个默认的计算图,通过tf.get_default_graph函数可以获取当前默认的计算图。 除去使用默认的计算图,TensorFlow支持通过 阅读全文
posted @ 2019-07-23 22:43 陈辻柒 阅读(182) 评论(0) 推荐(0) 编辑
摘要: 题目描述: 给定两个大小为 m 和 n 的有序数组 nums1 和 nums2。 请你找出这两个有序数组的中位数,并且要求算法的时间复杂度为 O(log(m + n))。 你可以假设 nums1 和 nums2 不会同时为空。 链接 示例 1: nums1 = [1, 3] nums2 = [2] 阅读全文
posted @ 2019-01-08 21:43 陈辻柒 阅读(1053) 评论(0) 推荐(0) 编辑
摘要: 给定一个字符串,请你找出其中不含有重复字符的 最长子串 的长度。 示例1. 输入: "abcabcbb" 输出: 3 解释: 因为无重复字符的最长子串是 "abc",所以其长度为 3。 示例2. 输入: "bbbbb" 输出: 1 解释: 因为无重复字符的最长子串是 "b",所以其长度为 1 示例3 阅读全文
posted @ 2019-01-08 19:45 陈辻柒 阅读(201) 评论(0) 推荐(0) 编辑
摘要: 1 #include 2 using namespace std; 3 int main() 4 { 5 vectornum; 6 for(int i = 0; i ::iterator it = num.begin(); it != num.end();) 12 { 13 if(*it % 2 == 0) 14 { 15 ... 阅读全文
posted @ 2018-03-30 16:20 陈辻柒 阅读(531) 评论(0) 推荐(0) 编辑