摘要: 1.信息论基础(熵 联合熵 条件熵 信息增益 基尼不纯度) 熵:香农用信息熵的概念来描述信源的不确定度,变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。 联合熵:联合熵表征了两事件同时发生系统的不确定度。 条件熵 :设有随机变量(X,Y),其联合概率分布为 p(X=x,Y= yi) 阅读全文
posted @ 2019-08-11 20:53 Robin_D 阅读(289) 评论(0) 推荐(0) 编辑