TensorFlow softmax的互熵损失
函数:tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)
功能:这个函数的作用是计算 logits
经 softmax 函数激活之后的交叉熵
实例:
1 inputdata = tf.Variable([[0.2, 0.1, 0.9]], dtype=np.float32) 2 output = tf.nn.softmax_cross_entropy_with_logits(logits=inputdata, labels = [[1.0, 0.0, 0.0]]) 3 with tf.Session() as sess: 4 sess.run(tf.global_variables_initializer()) 5 print (sess.run(inputdata)) 6 print (sess.run(output))
输出:
[[ 0.2 0.1 0.89999998]]
[ 1.36573195]
时刻记着自己要成为什么样的人!