摘要: sparse_softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 定义 说明 此函数大致与tf_nn_softmax_cross_entropy_with_logits的计算方式相同, 适用于每个类别相互独立且排斥的情况, 阅读全文
posted @ 2017-08-26 16:28 WUST许志伟 阅读(7025) 评论(0) 推荐(0) 编辑
摘要: softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 解释 这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵。 对于每个独立的分类任务,这个函数是去度量概率误差。比如,在 CIFAR 1 阅读全文
posted @ 2017-08-26 16:16 WUST许志伟 阅读(2178) 评论(0) 推荐(0) 编辑
摘要: weighted_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 此函数功能以及计算方式基本与tf_nn_sigmoid_cross_entropy_with_logits差不多,但是加上了权重的功能,是计算具有权重的sigmoid交 阅读全文
posted @ 2017-08-26 16:05 WUST许志伟 阅读(10142) 评论(0) 推荐(1) 编辑
摘要: sigmoid_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 函数意义 这个函数的作用是计算经sigmoid 函数激活之后的交叉熵。 为了描述简洁,我们规定 x = logits,z = targets,那么 Logist 阅读全文
posted @ 2017-08-26 15:21 WUST许志伟 阅读(13577) 评论(1) 推荐(1) 编辑
摘要: 交叉熵损失函数的概念和理解 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 公式 $$ loss =\sum_{i}{(y_{i} \cdot log(y\_predicted_{i}) +(1 y_{i}) \cdot log(1 y\_predicted_{i}) )} $$ 定义 阅读全文
posted @ 2017-08-26 15:15 WUST许志伟 阅读(9006) 评论(2) 推荐(1) 编辑