TensorFlow softmax的互熵损失

  函数:tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)

  功能:这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵

  实例:

1 inputdata = tf.Variable([[0.2, 0.1, 0.9]], dtype=np.float32)
2 output = tf.nn.softmax_cross_entropy_with_logits(logits=inputdata, labels = [[1.0, 0.0, 0.0]])
3 with tf.Session() as sess:
4     sess.run(tf.global_variables_initializer())
5     print (sess.run(inputdata))
6     print (sess.run(output))

  输出:

[[ 0.2 0.1 0.89999998]]
[ 1.36573195]

posted @ 2017-09-13 10:38  今夜无风  阅读(217)  评论(0编辑  收藏  举报