摘要: NLP复习大纲 信息论基础 信息量 \(I(x)=-log_2^{p(x)}\) 熵是所有事件信息量的期望 \(H(X)=-\sum_xp(x)*log_2^{p(x)}\) 联合熵 \(H(X,Y)=-\sum_x \sum_y p(x,y)*log_2^{p(x,y)}\) 条件熵 \(H(Y| 阅读全文
posted @ 2021-07-09 17:41 WeiAR 阅读(79) 评论(0) 推荐(0) 编辑