欢迎
摘要: tf.train.AdamOptimizer()函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。 tf.train.AdamOptimizer.__init__( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon= 阅读全文
posted @ 2022-11-03 15:42 bokeyuan-aa 阅读(121) 评论(0) 推荐(0) 编辑
摘要: tf.concat是连接两个矩阵的操作 tf.concat(concat_dim, values, name='concat') 除去name参数用以指定该操作的name,与方法有关的一共两个参数: 第一个参数concat_dim:必须是一个数,表明在哪一维上连接 如果concat_dim是0,那么 阅读全文
posted @ 2022-11-03 15:35 bokeyuan-aa 阅读(171) 评论(0) 推荐(0) 编辑
摘要: tf.variable_scope(): 可以让变量有相同的命名,包括tf.get_variable得到的变量,还有tf.Variable变量 它返回的是一个用于定义创建variable(层)的op的上下文管理器。 可变范围允许创建新的variable并分享已创建的variable,同时提供检查,不 阅读全文
posted @ 2022-11-03 15:21 bokeyuan-aa 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 线性整流函数(Rectified Linear Unit, ReLU),又称修正线性单元。其定义如下图,在横坐标的右侧,ReLU函数为线性函数。在横坐标的右侧,ReLU函数为值为0。 因此,tf.nn.relu()函数的目的是,将输入小于0的值幅值为0,输入大于0的值不变。 import tenso 阅读全文
posted @ 2022-11-03 15:01 bokeyuan-aa 阅读(60) 评论(0) 推荐(0) 编辑
摘要: tf.layers.dense用于添加一个全连接层。 函数如下: tf.layers.dense( inputs, #层的输入 units, #该层的输出维度 activation=None, #激活函数 use_bias=True, kernel_initializer=None, # 卷积核的初 阅读全文
posted @ 2022-11-03 14:58 bokeyuan-aa 阅读(100) 评论(0) 推荐(0) 编辑
摘要: 函数原型:tf.placeholder(dtype, shape=None, name=None) 使用说明:该函数用于得到传递进来的真实的训练样本。同时也可以理解为形参, 用于定义过程,在执行的时候再赋具体的值。(相当于首先定义一个容器,包含容量、size等信息,真正调用的时候再往容器里面注入东西 阅读全文
posted @ 2022-11-03 09:27 bokeyuan-aa 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 用例:numpy.divide(x1, x2, /, out=None, *, where=True, casting=‘same_kind’, order=‘K’, dtype=None, subok=True[, signature, extobj]) = <ufunc ‘true_divide 阅读全文
posted @ 2022-11-03 08:42 bokeyuan-aa 阅读(265) 评论(0) 推荐(0) 编辑
摘要: np.argwhere( a ) Find the indices of array elements that are non-zero, grouped by element. 返回非0的数组元组的索引,其中a是要索引数组的条件。 阅读全文
posted @ 2022-11-02 21:56 bokeyuan-aa 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 1.np.logical_and (逻辑与) 2.np.logical_or (逻辑或) 3.np.logical_not (逻辑非) 阅读全文
posted @ 2022-11-02 21:51 bokeyuan-aa 阅读(17) 评论(0) 推荐(0) 编辑
摘要: np.newaxisnp.newaxis 的功能是增加新的维度,但是要注意 np.newaxis 放的位置不同,产生的矩阵形状也不同。通常按照如下规则:np.newaxis 放在哪个位置,就会给哪个位置增加维度x[:, np.newaxis] ,放在后面,会给列上增加维度x[np.newaxis, 阅读全文
posted @ 2022-11-02 21:35 bokeyuan-aa 阅读(23) 评论(0) 推荐(0) 编辑