08 2017 档案

摘要:tf.train.shuffle_batch函数解析 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " (tensor_list, batch_size, capacity, min_after_dequeue, num_threads=1, seed=None, enqueue_man 阅读全文
posted @ 2017-08-29 17:22 WUST许志伟 阅读(5926) 评论(0) 推荐(0)
摘要:sparse_softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 定义 说明 此函数大致与tf_nn_softmax_cross_entropy_with_logits的计算方式相同, 适用于每个类别相互独立且排斥的情况, 阅读全文
posted @ 2017-08-26 16:28 WUST许志伟 阅读(7041) 评论(0) 推荐(0)
摘要:softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 解释 这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵。 对于每个独立的分类任务,这个函数是去度量概率误差。比如,在 CIFAR 1 阅读全文
posted @ 2017-08-26 16:16 WUST许志伟 阅读(2200) 评论(0) 推荐(0)
摘要:weighted_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 此函数功能以及计算方式基本与tf_nn_sigmoid_cross_entropy_with_logits差不多,但是加上了权重的功能,是计算具有权重的sigmoid交 阅读全文
posted @ 2017-08-26 16:05 WUST许志伟 阅读(10230) 评论(0) 推荐(1)
摘要:sigmoid_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 函数意义 这个函数的作用是计算经sigmoid 函数激活之后的交叉熵。 为了描述简洁,我们规定 x = logits,z = targets,那么 Logist 阅读全文
posted @ 2017-08-26 15:21 WUST许志伟 阅读(13755) 评论(1) 推荐(1)
摘要:交叉熵损失函数的概念和理解 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 公式 $$ loss =\sum_{i}{(y_{i} \cdot log(y\_predicted_{i}) +(1 y_{i}) \cdot log(1 y\_predicted_{i}) )} $$ 定义 阅读全文
posted @ 2017-08-26 15:15 WUST许志伟 阅读(9035) 评论(2) 推荐(1)
摘要:原创文章,转载请务必注明出处 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本节主要解释jupyter中各种插件 Exercise Exercise Define a group of cells as a "solution". Then it is possible to hid 阅读全文
posted @ 2017-08-20 21:31 WUST许志伟 阅读(26296) 评论(0) 推荐(2)
摘要:markdown 入门简明指南 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 标题 标题是每篇文章必备而且最常用的格式。 在Markdown中,如果想将一段文字定义为标题,只需要在这段文字前面加上 ,再在 后加一个空格即可。还可增加二、三、四、五、六级标题,总共六级,只需要增加 ,增 阅读全文
posted @ 2017-08-17 15:59 WUST许志伟 阅读(3983) 评论(0) 推荐(0)