摘要: 整理自:https://mp.weixin.qq.com/s/LGyNq3fRlsRSatu1lpFnnw 南大周志华老师的西瓜书—第四章 公式 信息增益是决策树ID3算法在进行特征切割时使用的划分准则,其物理意义和互信息完全相同,并且公式也是完全相同。 其中D表示数据集,A表示特征,信息增益表示得 阅读全文
posted @ 2018-05-17 22:30 笨拙的忍者 阅读(221) 评论(0) 推荐(0) 编辑
摘要: 整理自:https://mp.weixin.qq.com/s/LGyNq3fRlsRSatu1lpFnnw 问题:熵是什么?熵存在的意义是啥?为什么叫熵? 答案:在机器学习中熵是表征随机变量分布的混乱程度,分布越混乱,则熵越大,在物理学上表征物质状态的参量之一,也是体系混乱程度的度量; 熵存在的意义 阅读全文
posted @ 2018-05-17 22:14 笨拙的忍者 阅读(361) 评论(0) 推荐(0) 编辑
摘要: 整理自:https://mp.weixin.qq.com/s/LGyNq3fRlsRSatu1lpFnnw 自信息是熵的基础,理解它对后续理解各种熵非常有用。自信息表示某一事件发生时所带来的信息量的多少,当事件发生的概率越大,则自信息越小,或者可以这样理解:某一事件发生的概率非常小,但是实际上却发生 阅读全文
posted @ 2018-05-17 22:13 笨拙的忍者 阅读(819) 评论(0) 推荐(0) 编辑
摘要: 摘自:http://www.cnblogs.com/pinard/p/7160330.html 先看下列三篇,再理解此篇会更容易些(个人意见) skip-gram,CBOW,Word2Vec 词向量基础 CBOW与Skip-Gram用于神经网络语言模型 CBOW与Skip-Gram用于神经网络语言模 阅读全文
posted @ 2018-05-15 11:59 笨拙的忍者 阅读(251) 评论(0) 推荐(0) 编辑
摘要: 转自:https://www.cnblogs.com/mcgrady/p/3329825.html 什么是霍夫曼树 构建过程 编码 什么是霍夫曼树? 哈夫曼树是一种带权路径长度最短的二叉树,也称为最优二叉树。 它们的带权路径长度分别为: 图a: WPL=5*2+7*2+2*2+13*2=54 图b: 阅读全文
posted @ 2018-05-15 11:29 笨拙的忍者 阅读(396) 评论(0) 推荐(0) 编辑
摘要: 代码来源于:tensorflow机器学习实战指南(曾益强 译,2017年9月)——第七章:自然语言处理 代码地址:https://github.com/nfmcclure/tensorflow-cookbook 数据:http://www.cs.cornell.edu/people/pabo/mov 阅读全文
posted @ 2018-05-14 17:08 笨拙的忍者 阅读(588) 评论(0) 推荐(0) 编辑
摘要: 代码来源于:tensorflow机器学习实战指南(曾益强 译,2017年9月)——第七章:自然语言处理 代码地址:https://github.com/nfmcclure/tensorflow-cookbook 数据:http://www.cs.cornell.edu/people/pabo/mov 阅读全文
posted @ 2018-05-14 13:53 笨拙的忍者 阅读(681) 评论(0) 推荐(0) 编辑
摘要: 代码来源于:tensorflow机器学习实战指南(曾益强 译,2017年9月)——第七章:自然语言处理 代码地址:https://github.com/nfmcclure/tensorflow-cookbook 数据来源:http://www.cs.cornell.edu/people/pabo/m 阅读全文
posted @ 2018-05-13 11:03 笨拙的忍者 阅读(952) 评论(0) 推荐(0) 编辑
摘要: 转载自:https://blog.csdn.net/uestc_c2_403/article/details/72235565 tf.truncated_normal(shape, mean, stddev) :shape表示生成张量的维度,mean是均值,stddev是标准差。这个函数产生正太分布 阅读全文
posted @ 2018-05-10 18:12 笨拙的忍者 阅读(1438) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 思想 表达式 实际计算方法 改进 WGAN 1.思想 GAN结合了生成模型和判别模型,相当于矛与盾的撞击。生成模型负责生成最好的数 阅读全文
posted @ 2018-05-10 13:18 笨拙的忍者 阅读(303) 评论(0) 推荐(0) 编辑