摘要:
sparse_softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 定义 说明 此函数大致与tf_nn_softmax_cross_entropy_with_logits的计算方式相同, 适用于每个类别相互独立且排斥的情况, 阅读全文
摘要:
softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 解释 这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵。 对于每个独立的分类任务,这个函数是去度量概率误差。比如,在 CIFAR 1 阅读全文
摘要:
weighted_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 此函数功能以及计算方式基本与tf_nn_sigmoid_cross_entropy_with_logits差不多,但是加上了权重的功能,是计算具有权重的sigmoid交 阅读全文
摘要:
sigmoid_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 函数意义 这个函数的作用是计算经sigmoid 函数激活之后的交叉熵。 为了描述简洁,我们规定 x = logits,z = targets,那么 Logist 阅读全文
摘要:
交叉熵损失函数的概念和理解 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 公式 $$ loss =\sum_{i}{(y_{i} \cdot log(y\_predicted_{i}) +(1 y_{i}) \cdot log(1 y\_predicted_{i}) )} $$ 定义 阅读全文