如何理解深度学习源码里经常出现的logits?
参考资料:https://www.zhihu.com/question/60751553
补充更细:
也可以这么理解:logits与 softmax都属于在输出层的内容,
logits = tf.matmul(X, W) + bias
再对logits做归一化处理,就用到了softmax:
Y_pred = tf.nn.softmax(logits,name='Y_pred')
——————————————————————
Unscaled log probabilities of shape [d_0, d_1, ..., d_{r-1}, num_classes] and dtype float32 or float64.
可以理解logits ——【batchsize,class_num】是未进入softmax的概率,一般是全连接层的输出,softmax的输入
作者:勇敢的心
链接:https://www.zhihu.com/question/60751553/answer/336994023
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。