08 2017 档案
摘要:tf.train.shuffle_batch函数解析 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " (tensor_list, batch_size, capacity, min_after_dequeue, num_threads=1, seed=None, enqueue_man
阅读全文
摘要:sparse_softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 定义 说明 此函数大致与tf_nn_softmax_cross_entropy_with_logits的计算方式相同, 适用于每个类别相互独立且排斥的情况,
阅读全文
摘要:softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 解释 这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵。 对于每个独立的分类任务,这个函数是去度量概率误差。比如,在 CIFAR 1
阅读全文
摘要:weighted_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 此函数功能以及计算方式基本与tf_nn_sigmoid_cross_entropy_with_logits差不多,但是加上了权重的功能,是计算具有权重的sigmoid交
阅读全文
摘要:sigmoid_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 函数意义 这个函数的作用是计算经sigmoid 函数激活之后的交叉熵。 为了描述简洁,我们规定 x = logits,z = targets,那么 Logist
阅读全文
摘要:交叉熵损失函数的概念和理解 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 公式 定义
阅读全文
摘要:原创文章,转载请务必注明出处 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本节主要解释jupyter中各种插件 Exercise Exercise Define a group of cells as a "solution". Then it is possible to hid
阅读全文
摘要:markdown 入门简明指南 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 标题 标题是每篇文章必备而且最常用的格式。 在Markdown中,如果想将一段文字定义为标题,只需要在这段文字前面加上 ,再在 后加一个空格即可。还可增加二、三、四、五、六级标题,总共六级,只需要增加 ,增
阅读全文