摘要: 在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l 阅读全文
posted @ 2017-03-21 16:26 微信公众号--共鸣圈 阅读(10848) 评论(0) 推荐(2) 编辑
摘要: a = np.arange(2*4*4) b = a.reshape(1,4,4,2) #应该这样按反序来理解:最后一个2是一个只有2个元素的向量,最后的4,2代表4×2的矩阵,最后的4×4×2代表立体张量,第一个1代表只有一个这样的张量(即该张量在第四维度只有一个元素)。 c = a.reshap 阅读全文
posted @ 2017-03-21 14:50 微信公众号--共鸣圈 阅读(1171) 评论(0) 推荐(0) 编辑