[TensorFlow] 损失函数(交叉熵)中的from_logits

from_logits是一个布尔量,当from_logits=True的时候,该层会将output做normalize(softmax)

因此,一个直观的理解就是layerA with activation + softmax + loss(from_logits=False)与layerA + loss(from_logits=True)等效

posted @ 2021-04-08 22:13  Harry666  阅读(1195)  评论(0编辑  收藏  举报