会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
洪大洋
博客园
首页
新随笔
联系
订阅
管理
2017年7月29日
机器学习中的两个概念: 信息熵 和基尼不纯度
摘要: 1、信息熵: 一个随机变量 X 可以代表n个随机事件,对应的随机变为X=xi, 那么熵的定义就是 X的加权信息量。 H(x) = p(x1)I(x1)+...+p(xn)I(x1) = p(x1)log2(1/p(x1)) +.....+p(xn)log2(1/p(xn)) = -p(x1)log2
阅读全文
posted @ 2017-07-29 16:14 洪大洋
阅读(4335)
评论(0)
推荐(0)
编辑
公告