2018年3月20日

理解dropout

摘要: http://blog.csdn.net/stdcoutzyx/article/details/49022443 http://www.dataguru.cn/article-10459-1.html 阅读全文

posted @ 2018-03-20 17:00 mdumpling 阅读(115) 评论(0) 推荐(0) 编辑

交叉熵和softmax

摘要: 深度学习分类问题结尾就是softmax,损失函数是交叉熵,本质就是极大似然。。。 阅读全文

posted @ 2018-03-20 15:21 mdumpling 阅读(147) 评论(0) 推荐(0) 编辑

Word2Vec小心得

摘要: 今天终于想明白了分层softmax的作用: 哈夫曼树的作用是什么??用平均最小的长度编码!编码是为了解码成信息! 神经概率语言模型:有映射层,隐藏层,输出层,假设隐藏层是300维,输出层是和单词的数量相等的,因为传统Softmax的原因,比如有10000的词,那么参数就是300*10000=3000 阅读全文

posted @ 2018-03-20 14:56 mdumpling 阅读(129) 评论(0) 推荐(0) 编辑

KL散度

摘要: from http://blog.csdn.net/ericcchen/article/details/72357411 KL散度( KL divergence) 全称:Kullback-Leibler Divergence 用途:比较两个概率分布的接近程度 在统计应用中,我们经常需要用一个简单的, 阅读全文

posted @ 2018-03-20 09:52 mdumpling 阅读(668) 评论(0) 推荐(0) 编辑

多标签分类问题

摘要: https://www.zhihu.com/question/35486862 阅读全文

posted @ 2018-03-20 09:46 mdumpling 阅读(105) 评论(0) 推荐(0) 编辑

找出各种情况的两种套路(算法)

摘要: 有两种题型: 1.在一堆数中找到符合条件的组合 可以使用回溯法,剪枝 2.一般有套路了,时间复杂度往往为O(n)等,就是只要一种情况成立了,就不用向下继续搜索了,其他情况全部成立 和回溯法典型区别:一个是不行直接返回,其他都不成立,一种是最差的情况都成立,其他的也成立。 阅读全文

posted @ 2018-03-20 09:34 mdumpling 阅读(216) 评论(0) 推荐(0) 编辑

导航