如何理解深度学习源码里经常出现的logits?

  参考资料:https://www.zhihu.com/question/60751553

补充更细:

也可以这么理解:logits与 softmax都属于在输出层的内容,

logits = tf.matmul(X, W) + bias

再对logits做归一化处理,就用到了softmax:

Y_pred = tf.nn.softmax(logits,name='Y_pred')

——————————————————————

Unscaled log probabilities of shape [d_0, d_1, ..., d_{r-1}, num_classes] and dtype float32 or float64.

可以理解logits ——【batchsize,class_num】是未进入softmax的概率,一般是全连接层的输出,softmax的输入



作者:勇敢的心
链接:https://www.zhihu.com/question/60751553/answer/336994023
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
posted @ 2020-05-31 10:04  思念殇千寻  阅读(649)  评论(0编辑  收藏  举报