会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
HOLD
模式识别,图像处理,机器学习
博客园
首页
新随笔
联系
订阅
管理
2016年7月24日
机器学习中的数学系列-信息论
摘要: 1,信息 \( i(x)=-log(p(x)) \) 事件x不确定性的度量,不确定性越大,信息量越大。 从信息编码角度,这是编码这一信息所需要的最小比特数(log以2为底,以e为底的叫做奈特)。 2,熵 \( H(X) = \sum_x{-p(x)log(p(x))} \) 随机变量X不确定的度量,
阅读全文
posted @ 2016-07-24 18:03 HOLD
阅读(1119)
评论(0)
推荐(0)
编辑
公告