TF-激活函数 tf.nn.relu 介绍

tf.nn.relu(features, name = None)

 这个函数的作用是计算激活函数 relu,即 max(features, 0)。将大于0的保持不变,小于0的数置为0。

import tensorflow as tf

a = tf.constant([-1.0, 2.0])
with tf.Session() as sess:
    b = tf.nn.relu(a)
    print sess.run(b)
以上程序输出的结果是:[0. 2.]
posted @ 2018-06-04 11:33  XH_Chiang  阅读(31105)  评论(8编辑  收藏  举报