摘要: def fully_connected( inputs, # 输入 num_outputs, # 本层输出的数量 activation_fn=tf.nn.relu, # 本层的激活函数(None则默认为线性) normalizer_fn=None, # 正则化函数(用来替代偏置[biases],如果 阅读全文
posted @ 2019-10-21 11:30 一帆小白 阅读(346) 评论(0) 推荐(0) 编辑