摘要:
tf.train.AdamOptimizer()函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。 tf.train.AdamOptimizer.__init__( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon= 阅读全文
摘要:
tf.concat是连接两个矩阵的操作 tf.concat(concat_dim, values, name='concat') 除去name参数用以指定该操作的name,与方法有关的一共两个参数: 第一个参数concat_dim:必须是一个数,表明在哪一维上连接 如果concat_dim是0,那么 阅读全文
摘要:
tf.variable_scope(): 可以让变量有相同的命名,包括tf.get_variable得到的变量,还有tf.Variable变量 它返回的是一个用于定义创建variable(层)的op的上下文管理器。 可变范围允许创建新的variable并分享已创建的variable,同时提供检查,不 阅读全文
摘要:
线性整流函数(Rectified Linear Unit, ReLU),又称修正线性单元。其定义如下图,在横坐标的右侧,ReLU函数为线性函数。在横坐标的右侧,ReLU函数为值为0。 因此,tf.nn.relu()函数的目的是,将输入小于0的值幅值为0,输入大于0的值不变。 import tenso 阅读全文
摘要:
tf.layers.dense用于添加一个全连接层。 函数如下: tf.layers.dense( inputs, #层的输入 units, #该层的输出维度 activation=None, #激活函数 use_bias=True, kernel_initializer=None, # 卷积核的初 阅读全文
摘要:
函数原型:tf.placeholder(dtype, shape=None, name=None) 使用说明:该函数用于得到传递进来的真实的训练样本。同时也可以理解为形参, 用于定义过程,在执行的时候再赋具体的值。(相当于首先定义一个容器,包含容量、size等信息,真正调用的时候再往容器里面注入东西 阅读全文
摘要:
用例:numpy.divide(x1, x2, /, out=None, *, where=True, casting=‘same_kind’, order=‘K’, dtype=None, subok=True[, signature, extobj]) = <ufunc ‘true_divide 阅读全文