李宏毅机器学习课程笔记-10.2生成模型中的半监督学习

生成模型中的半监督学习:Semi-supervised Learning for Generative Model

有监督生成模型

有监督生成模型:Supervised Generative Model

如下图所示,在有监督生成模型中,得到\(P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\)后,就可以计算出\(x\)属于类别\(C_i\)的概率\(P(C_i|x)\)

img

半监督生成模型

半监督生成模型:Semi-supervised Generative Model

基于有监督生成模型,当有了无标签数据之后(下图中绿色圆点),我们会明显发现有监督生成模型中的\(P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\)并不够正确,比如2个类别的分布应该接近于下图中虚线圆圈、先验概率\(P(C_1)\)应该小于\(P(C_2)\),所以应该使用无标签数据重新估计\(P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\)

img

直观理解

具体来讲,按照以下步骤进行计算:

  1. 初始化参数:\(\theta=\{P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\}\)

    可以随机初始化,也可以用有标签数据估算

  2. 通过\(\theta\)计算每个样本\(x^u\)属于类别\(C_i\)的概率\(P_\theta(C_i|x^u)\)

  3. 更新参数\(\theta\)(其实重点就是如何同时利用有标签数据和无标签数据实现半监督)

  • \(P(C_1)=\frac{N_1+\sum_{x^u}P(C_1|x^u)}{N}\),其中\(N\)是所有样本的数量、\(N_1\)是属于类别\(C_1\)的样本的数量。
  • \(\mu^1=\frac{1}{N_1}\sum_{x^r\in C_1}x^r+\frac{1}{\sum_{x^u}P(C_1|x^u)}\sum_{x^u}P(C_1|x^u)x^u\),其中\(x^r,x^u\)分别指有标签的样本和无标签的样本

同理可知其它参数的计算和更新方法

  1. 返回第2步

理论上,上述步骤是可以收敛的,但参数\(\theta\)的初始化值会影响结果。其实上面的第2步是EM算法中的E,第3步是EM算法中的M。

理论推导

\(\theta=\{P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\}\)

  • Maximum likelihood with labelled data

    使得\(logL(\theta)=\sum_{x^r}logP_\theta(x^r, \hat y^r)\)最大(有一个Closed-form solution),其中每个有标注样本\(x^r\)\(P_\theta(x^r,\hat y^r)=P_\theta(x^r|\hat y^r)P(\hat y^r)\)

  • Maximum likelihood with labelled & unlabeled data

    使得\(logL(\theta)=\sum_{x^r}logP_\theta(x^r, \hat y^r)+\sum_{x^u}logP_\theta(x^u)\)最大(该式并不是凹函数,所以需要迭代求解),其中每个无标注样本\(x^u\)\(P_\theta(x^u)=P_\theta(x^u|C_1)P(C_1)+P_\theta(x^u|C_2)P(C_2)\)


Github(github.com):@chouxianyu

Github Pages(github.io):@臭咸鱼

知乎(zhihu.com):@臭咸鱼

博客园(cnblogs.com):@臭咸鱼

B站(bilibili.com):@绝版臭咸鱼

微信公众号:@臭咸鱼

转载请注明出处,欢迎讨论和交流!


posted @ 2021-04-17 10:49  臭咸鱼  阅读(386)  评论(0编辑  收藏  举报