摘要: 在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l 阅读全文
posted @ 2020-10-15 16:44 Sunshine168 阅读(139) 评论(0) 推荐(0) 编辑