摘要: 在计算loss的时候,最常见的一句话就是 tf.nn.softmax_cross_entropy_with_logits ,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, 阅读全文
posted @ 2018-08-03 17:30 marsggbo 阅读(777) 评论(0) 推荐(0) 编辑